Green AI

L'IA Responsable (Green AI) ne consiste pas à dire "non" à l'intelligence — c'est lui demander de faire plus avec moins. Moins de tokens, des modèles correctement dimensionnés, des exécutions plus propres. Voyez cela comme de l'ingénierie de la performance pour la cognition, avec un budget carbone.

Une simple requête peut sembler insignifiante — mais multipliée par des milliards, elle s'empile dans les data centers, les réseaux électriques, les systèmes de refroidissement et les chaînes d'approvisionnement en silicium. Les choix de conception, d'infra et de produit déterminent aujourd'hui si l'IA deviendra durable ou juste un autre gouffre énergétique.

Ce que signifie Green AI

  • Sobriété des tokens : dire moins, signifier plus. Structurez les prompts ; évitez de copier-coller des documents entiers.
  • Modèles dimensionnés : adaptez la taille du modèle à la complexité réelle de la tâche.
  • Moins d'appels, mais meilleurs : mettez en cache les résultats stables ; ne relancez pas juste pour "voir une autre version".
  • Exécutions plus propres : préférez les régions/heures plus vertes ; surveillez le PUE et le WUE ; amortissez l'impact de l'entraînement sur la durée.
  • Mesurer & partager : suivez les budgets de tokens et affichez les estimations kWh / CO₂ / H₂O pour 1000 tokens dans la documentation produit.

À faire / À éviter

  • À faire : Gardez le contexte concis (3–5 points), définissez le format de sortie (JSON, liste à puces, schéma, etc.).
  • À faire : Réutilisez un prompt système stable ; injectez seulement le delta par requête.
  • À faire : Plafonnez la sortie (max_tokens) et arrêtez dès que la réponse utile apparaît.
  • À éviter : Coller de longs PDF "au cas où". Utilisez le RAG (découpage + seuil) à la place.
  • À éviter : Lancer le plus gros modèle pour une correction orthographique — c'est comme prendre une fusée pour acheter du pain.
  • À éviter : Régénérer indéfiniment. Loggez, comparez, choisissez, avancez.

Choisir le Bon Modèle

  • Tiny / small LLMs : les tâches comme la grammaire, l'extraction ou les réécritures courtes peuvent tourner sur des modèles comme Gemma 2B, Llama 3 8B, ou Mistral 7B.
  • Taille moyenne : pour le raisonnement sur des contextes courts ou des sorties structurées, utilisez des modèles comme Claude 3 Haiku ou GPT-4 Mini.
  • Large / flagship : pour la synthèse de longs contextes, le raisonnement multi-étapes ou le travail critique, réservez les modèles tels que Claude 3 Opus, GPT-4 Turbo ou Gemini 1.5 Pro.
  • Plateformes ultra-lourdes ou multi-modèles : utilisez-les uniquement lorsque la cross-modalité apporte une valeur prouvée ; combinez via des orchestrateurs comme Mammouth AI pour réduire les appels d'infrastructure dupliqués.[9]

Règle d'or : si une expression régulière ou un modèle 7B peut le résoudre, ne réveillez pas un géant de 175B de paramètres. L'usage du GPU représente ~80 % de l'empreinte environnementale d'un serveur IA.[8]

Image & Vidéo IA

La génération de visuels et de vidéos est le moment où l'IA passe d'intelligente à énergivore. Une seule vidéo générative d'une minute utilisant des modèles comme Sora ou Kling AI implique des dizaines de passes de diffusion haute résolution — à peu près l'équivalent de faire tourner un micro-ondes pendant 1,5 à 2 jours non-stop.[10] Une seule image 1024×1024 de Midjourney ou ChatGPT Image peut consommer autant d'énergie que l'envoi de plusieurs centaines d'emails avec pièces jointes.

Le problème passe vite à l'échelle : itérations de rendu, upscales et "roulette du prompt" multiplient la charge de calcul par des facteurs de 10 à 100. Derrière chaque expérience esthétique se cache du temps GPU, de l'eau de refroidissement et l'usure du silicium.

Comment créer de manière responsable :

  • Grouper et limiter : générez plusieurs variations à la fois, examinez hors ligne, puis affinez — ne re-promptez pas indéfiniment.
  • Travaillez petit d'abord : testez à 512 px, n'agrandissez (upscale) que les résultats sélectionnés.
  • Préférez les outils efficaces : utilisez des plateformes offrant le choix du modèle et des backends basse consommation (ex. Leonardo AI Eco Mode, Hugging Face Diffusers Lite).
  • Cachez et réutilisez les assets : gardez les compositions de base et rééditez localement au lieu de régénérer.
  • Pour les professionnels : mesurez le coût par asset (tokens, Wh, CO₂) et incluez-le dans les rapports de projet. Une empreinte transparente fait partie des bonnes pratiques créatives.

L'exploration artistique n'est pas l'ennemie — le gaspillage l'est. Moins de générations, mais plus délibérées, sont à la fois plus vertes et plus créatives.

Au-delà des Prompts

  • Exécutions plus vertes : choisissez des régions au réseau plus propre ou des heures creuses pour les tâches planifiées.
  • Cache & réutilisation : embarquez une fois, réutilisez souvent. Mémorisez les sorties stables côté serveur.
  • Amortir l'entraînement : allouez l'impact de l'entraînement sur l'utilisation réelle à long terme.
  • Gouvernance : fixez des budgets de tokens par fonctionnalité ; loggez et examinez les anomalies chaque mois.
  • Efficacité de la plateforme : préférez les outils qui mutualisent efficacement plusieurs modèles — ex. Mammouth AI, qui intègre texte, vision et raisonnement dans une interface unifiée, permettant de choisir le plus petit modèle capable pour chaque tâche.[9]
  • L'UX compte : ne demandez pas aux utilisateurs de "réessayer" 5 fois — c'est du carbone avec des clics en plus.

Références

  1. Washington Post (26 Août 2025) — “ChatGPT is an energy guzzler.” washingtonpost.com
  2. Washington Post (19 Juin 2025) — “ChatGPT isn’t great for the planet.” washingtonpost.com
  3. AIE (2025) — Energy and AI. iea.org
  4. AIE (10 Avr 2025) — La demande des data centers pourrait plus que doubler d'ici 2030. iea.org
  5. Li et al. (2023) — “Making AI Less ‘Thirsty’.” arxiv.org
  6. The Guardian (22 Mai 2025) — L'IA pourrait atteindre ~49 % de la puissance des data centers fin 2025. theguardian.com
  7. The Verge (Mai 2025) — L'IA pourrait dépasser le Bitcoin fin 2025. theverge.com
  8. Green IT (2025) — Impacts environnementaux et sanitaires de l’intelligence artificielle. greenit.fr
  9. Veille Techno IT (2025) — “Mammouth AI: a multi-model platform with growing eco considerations.” veilletechno-it.info
  10. RIFS / Helmholtz Zentrum (2025) — “Environmental cost of multimodal AI systems.”

Les chiffres restent indicatifs ; les charges de travail d'imagerie et de vidéo génératives ont parmi les plus fortes intensités énergétiques par sortie dans l'informatique.