Publicité

Sommet de l’IA : les modèles open source défendus pour leur durabilité

  • sommet_ia_open_source_durabilite.png

    Face aux défis environnementaux et éthiques, l’open source s’impose comme une alternative clé pour une intelligence artificielle plus durable et accessible (Session plénière du Sommet pour l’action sur l’IA, Élysée).
  • Au Sommet pour l’IA, l’open source s’impose comme une réponse aux défis de durabilité et de transparence des modèles d’intelligence artificielle. Des initiatives comme Roost et Open-R1 illustrent cette volonté d’allier accessibilité, sécurité et innovation responsable.

    "L’intelligence artificielle (IA) de demain sera-t-elle plus durable ?", c’est l’une des questions inévitables qui s’est posée au Sommet pour l’IA, le 10 et 11 février au Grand Palais de Paris. Alors que son impact environnemental est régulièrement décrié, les modèles open source présentent l’avantage de pouvoir répondre aux défis de transparence, d’accessibilité et de durabilité de l’IA.

    Plusieurs grandes entreprises et institutions ont mis en avant l’importance de rendre les modèles d’IA plus ouverts afin de permettre un contrôle plus large des algorithmes et d’éviter leur centralisation par quelques acteurs privés. Par exemple, un modèle open source peut être affiné (fine-tuning) avec des ensembles de données spécifiques plutôt que d’être reconstruit entièrement, réduisant ainsi la consommation d’électricité et les émissions de CO₂ liées aux calculs intensifs.

    Lire aussi : Emmanuel Macron annonce 109 milliards d'euros d'investissement dans l'IA

    Des initiatives durables pour l’IA

    Annoncé pendant le Sommet, le projet Roost (Robust Open Online Safety Tools), lancé par OpenAI, Google et Discord et d’autres entreprises tech, exploite des modèles d’IA avancés pour renforcer la sécurité en ligne. Il propose une suite d’outils open source destinés à protéger les mineurs et à combler les lacunes en cybersécurité. Avec un financement de 27 millions de dollars, Roost vise à rendre les solutions de protection plus accessibles et efficaces.

    Parmi les nouveaux outils numériques évoqués, le projet Open-R1, développé par l’entreprise franco-américaine Hugging Face, cherche à rendre le modèle chinois DeepSeek-R1 totalement open source. Malgré son code en open source, Deepseek n’a pas rendu publics ses jeux de données d’entraînement, ni son fonctionnement. Hugging Face entend donc décrypter ces zones d’ombre par un processus de rétro-ingénierie dont chaque étape fera l’objet de documentation publique sur la plateforme collaborative GitHub.
     

    À lire sur Archimag
    Les podcasts d'Archimag
    L’intelligence artificielle s’infiltre partout. Dans nos recherches en ligne, dans nos recommandations culturelles, dans nos trajets quotidiens… Elle s’adapte, apprend, et devient une force invisible qui façonne nos décisions, souvent à notre insu. Mais que sait-on vraiment de ces IA qui nous entourent ? Pour les podcasts d’Archimag, et pour mieux comprendre leur influence sur nos vies et sur notre rapport à l’information, nous avons rencontré Laura Sibony. Enseignante à HEC et à Sciences Po, elle est l’auteure de Fantasia : contes et légendes de l'intelligence artificielle, publié en 2024 aux éditions Grasset. Dans son livre, Laura Sibony nous invite à regarder au-delà du spectacle de l’IA pour en comprendre les rouages invisibles. C'est pourquoi elle a choisi d’explorer l’IA à travers une approche originale plutôt que par la voie technique ou théorique.
    Publicité