SÉRIE : "Les implications écologiques du divertissement numérique ou les coûts cachés de l'Innovation"
Par La Société des demains
2024-01-22
Par La Société des demains
2024-01-22
Les pronostics pour l’Intelligence Artificielle (IA) sont assez variés mais il semble d'ores et déjà assuré qu’une partie des outils et méthodes resteront en usage après la vague de buzz que nous vivons présentement. Les modèles d’affaires évolueront, les débats éthiques, légaux et de droits d’auteurs seront résolus ou malheureusement ignorés mais une part des avancées basées sur les grands modèles de langage restera. Que ce soit pour développer les décors de mondes virtuels, de films et de jeux vidéos, pour inventer des personnages synthétiques ou des personnages non-joueurs « intelligents », accélérer le travail de rotoscopie, réincarner des acteurs disparus, utiliser la version numérique d’une vedette, scénariser une expérience ou un jeux, ou encore construire des mondes en discutant avec un chatbot, l’IA, sous un nom ou un autre, sera présente dans la création et l’utilisation de la plupart des mondes numériques.
En plus de tous ces nouveaux outils, l’IA comporte aussi son lot de défis en éducation. Si elle offre la possibilité d’expériences éducatives personnalisées et dynamiques, tout en posant des défis importants du côté de l’éthique ainsi qu’une potentielle érosion des compétences en matière de pensée critique. Les éducateurs doivent donc faire évoluer leur rôle, passant de la transmission d’informations à une posture de facilitateurs encourageant un engagement profond et critique vis-à-vis de la technologie. Cette évolution exige un équilibre délicat : exploiter l’efficacité et l’innovation de l’IA tout en préservant les aspects inestimables de l‘interaction humaine.
Pour créer une intelligence artificielle, du moins selon les pratiques qui ont présentement du succès, il faut un modèle entraîné sur des milliards de données. Cette méthode est coûteuse, souvent problématique sur le plan de l’éthique, et nécessite énormément de temps de calcul par quantité d’ordinateurs puissants. En résulte une consommation d’électricité importante, un cycle de remplacement d’équipement rapide, et dans beaucoup de cas une grande demande en eau pour refroidir le tout. De plus, ce n’est pas seulement la création du modèle qui consomme, mais chaque nouvelle demande à une IA demande encore plus d’énergie.
Par exemple, l’entraînement de GPT-3 avec 175 milliards de paramètres aurait consommé 1,287 MWh d’électricité et entraîné des émissions de carbone de 502 tonnes métriques, ce qui équivaut à la consommation de 112 voitures à essence pendant un an. L’IA est de plus en plus intégrée aux engins de recherche, ce qui entraînerait cinq fois plus de demande énergétique qu’une recherche « classique ». Des chercheurs de Northeastern et du MIT estiment que l’inférence (l'utilisation) a un impact nettement plus important sur la consommation d’énergie que l’apprentissage. Pire encore, selon certaines études, l’entraînement des modèles ne représenterait potentiellement que 20 à 30% de la consommation totale requise pour la création et l’usage des IA. Les chiffres varient d’un estimé à l’autre mais nous pouvons affirmer sans se tromper que l’entraînement et l’usage des IA consomme beaucoup d’énergie.
La montréalaise Sasha Luccioni, chercheuse et responsable du climat chez la start-up franco-américaine Hugging Face, a récemment présenté une conférence sur les différents risques de l’IA. Elle y résume entre autres un papier qu’elle a coécrit et qui comporte une estimation de l’empreinte carbone de BLOOM, un modèle d’IA. Cette recherche est très citée, à juste titre, pour montrer l’impact négatif de ces projets, mais nous pouvons aussi remarquer que ce modèle de 176 milliards de paramètres n’a consommé « que » 50.5 tonnes de carbone, comparativement aux 502 de GPT-3 ou aux 352 de Gopher. Les modèles sont donc énergivores mais il est possible de faire beaucoup mieux. Plus tôt cette année, Sam Altman, PDG de OpenAI, affirmait que les progrès futurs ne viendraient pas de modèles toujours plus grands. « Je pense que nous sommes à la fin de l’ère des modèles géants, nous les améliorerons par d’autres moyens ». Est-ce que ces autres moyens seront plus coûteux en électricité? Il est permis d’espérer que, maintenant que l’impact carbone de ces modèles est connu, les prochaines phases seront suivies de plus près et développées avec plus d’attention portée à leurs impacts.
Si nous regardons plus loin que l’impact de l’IA et comment le réduire, peut-être que l’usage de l’IA peut entraîner des réductions importantes dans d’autres domaines. L’organisation à but non lucratif Climate Change AI a produit un papier détaillant comment l’apprentissage automatique (ML) pourrait être mis au service de la lutte contre le changement climatique. Il serait possible d’utiliser la ML pour localiser la déforestation, recueillir des données sur les bâtiments et évaluer les dégâts après les catastrophes. En recherche la ML pourrait suggérer de nouveaux matériaux pour les batteries, la construction et la capture du carbone, ou d’autres pistes accélérant le processus de découverte scientifique. En logistique la ML peut être utilisée pour consolider le fret, concevoir des marchés du carbone et réduire le gaspillage alimentaire. La ML peut aussi accélérer les simulations physiques coûteuses en calcul grâce à la modélisation hybride pour accélérer les simulations des modèles climatiques et des modèles de planification énergétique.