Aujourd’hui, les grandes entreprises et administrations publiques hésitent entre continuer à utiliser des logiciels propriétaires ou basculer vers les Logiciels Libres. Pourtant, la plupart des logiciels libres sont capables de bien traiter les données issues des logiciels propriétaire, et parfois avec une meilleur compatibilité.
C’est alors la barrière de la prise en main qui fait peur, et pourtant...
Les logiciels libres
L’aspect « Logiciel Libre » permet une évolution rapide et une plus grande participation des utilisateurs. Les aides et tutoriels foisonnent sur Internet ou sont directement inclus dans le logiciel lui-même.
Enfin, les concepteurs sont plus proches des utilisateurs, ce qui rend les logiciels libres plus agréable à utiliser et conviviaux.
Grâce à la disponibilité des logiciels libres, vous trouverez facilement des services de support techniques et la licence n’est plus un frein à l’utilisation de ces logiciels par votre personnel.
Notre support technique concerne essentiellement les logiciels libres, que ce soit sous forme de services ponctuels ou de tutoriels.
- 12 mars -
Bonjour à toustes !
Deuxième mercredi du mois et déjà le deuxième numéro de la FramIActu !
L’actualité de l’IA n’a pas ralenti et nous avons poursuivi la mise en avant sur https://curation.framamia.org/ notre sélection d’articles !
Honnêtement, nous aurions pu parler de chaque article ajouté depuis le mois dernier mais il nous faudrait *beaucoup* plus de temps pour préparer cette FramIActu… puis ça la rendrait littéralement imbuvable ! 😅
J’espère que vous avez préparé votre boisson chaude préférée et que vous êtes confortablement installé·e… ‘hui, c’est FramIActu !
À travers une analyse passionnante, le collectif Limites Numériques nous détaille de quelle manière l’IA générative nous est imposée dans nos outils numériques.
Le premier point mis en avant concerne la place prise par les fonctionnalités d’IA dans tous les outils du quotidien.
Par exemple, dans des applications de messagerie instantanée comme Snapchat ou Google Messages, la « discussion » avec l’IA est placée tout en haut de la liste des conversations. Selon les applications, celle-ci ressemblera à n’importe quel autre échange avec un·e humain·e.
Les boutons pour accéder aux fonctionnalités d’IA sont omniprésents, parfois affichés cinq fois sur une même page.
Plus loin, Limites Numériques nous décrit la simplicité avec laquelle l’IA est accessible, à un point où on la déclenche souvent par erreur…
Aussi, l’IA est activée par défaut et la désactiver s’avère difficile voire souvent impossible…

Le forcing de l’IA. D’après le meme « Two Buttons » de Gee. CC-BY-SA
L’article traite d’autres points, tout aussi importants, comme l’association des fonctionnalités d’IA à l’idée d’une action magique, dénigrant ainsi sa réalité matérielle et les impacts (sociaux, environnementaux) associés.
Merci à Limites Numériques pour la réalisation de ce document nous permettant de pointer du doigt le forcing de l’IA !
OpenAI, l’entreprise derrière le célèbre ChatGPT, a annoncé la sortie d’une version préliminaire d’un nouveau modèle GPT (utilisé par ChatGPT) : le 4.5.
L’entreprise promet que ce nouveau modèle a des performances supérieures à ses précédentes versions, notamment en « comprenant » plus finement les intentions de l’utilisateur·ice, et en réduisant son taux « d’hallucinations » à 37 %, là où les précédents modèles les plus récents ont un taux variant entre 44 % et 80 %.
Next nous résume ce nouveau modèle en trois mots : volumineux, gourmand et cher.
Pour parvenir à ces résultats, OpenAI a conçu un modèle nécessitant beaucoup plus de ressources que les anciens, précisant même que l’entreprise peine à se fournir en cartes GPU Nvidia (qui est le composant d’ordinateur le plus efficace pour faire tourner des algorithmes d’Intelligence Artificielle).
Tout cela a d’ailleurs un coût. Si le prix de GPT-4.5 est chiffré en dollars par OpenAI (Entre 75 et 150 dollars pour 1 million de « tokens », l’unité qui permet de mesurer notre utilisation d’une IA, soit 2 à 5 fois plus cher que le modèle OpenAI o1.), c’est bien son coût environnemental que nous pouvons aussi garder en tête.
Plus de cartes GPU signifie plus de serveurs et donc un impact environnemental et social toujours plus grand.
Si les technosolutionnistes font le pari que cette augmentation drastique de l’impact environnemental du numérique « vaut le coup », car l’IA-salvatrice nous trouvera une solution, il nous est toujours permis d’en douter et de questionner la réalité de ce discours. Pour le moment, le numérique capitaliste ne semble qu’accélérer le désastre…

Le meme Uno 25, dessiné par Gee. CC-BY-SA
Enfin, et cela est peu mis en avant dans l’article, les captures d’écran de GPT-4.5 semblent montrer un discours plus péremptoire (à l’axe, si vous avez la ref’ !) et opiniâtre que les précédents modèles.
À titre d’exemple, à la question « Qu’est-ce que tu penses de l’exploration de l’espace ? », GPT-4 répondait « L’exploration spatiale est un des efforts les plus ambitieux et profonds que l’humanité n’a jamais entrepris. […] ».
Pour la même question, GPT-4.5 répond « L’exploration spatiale n’est pas juste précieuse, elle est essentielle. […] ».
Cette évolution, plutôt discrète, de la manière de présenter son discours et de porter des opinions, peut avoir des conséquences majeures sur notre façon d’appréhender le monde alors que l’IA générative remplace de plus en plus nos bases de connaissances actuelles (comme Wikipédia, alors que l’encyclopédie fonctionne, au contraire, sur un modèle de neutralité d’opinion).
Une étude (qui n’est pas encore en version définitive et relue par les pair·es) décrivant l’impact de l’IA générative sur l’esprit critique est accessible.
Celle-ci est proposée par sept universitaires affiliés au centre de recherche Microsoft de l’université Cambridge, au Royaume-Uni, et à l’université Carnegie Mellon, en Pennsylvanie.
Dans cette étude, présentée par le média Usbek et Rica, les chercheur·euses nous détaillent qu’une dégradation de l’esprit critique est constatée lors de l’utilisation des IA génératives.
Cette dégradation serait notamment liée à la confiance que nous plaçons dans l’IA. Si nous estimons qu’une tâche est facile, nous aurons tendance à ne pas questionner la pertinence de la réponse de l’IA générative et ainsi faire plus facilement confiance en ses résultats.
L’étude souligne aussi que les résultats générés par des IA sont « moins pour la même tâche » que ceux créés par des personnes n’utilisant pas d’IA.
Nous pouvons nous questionner sur la raison, mais peut-être est-ce lié à la nature même des IA généralistes. Celles-ci sont des systèmes probabilistes, dont les résultats sont « les plus probablement attendus », « lissant » ainsi ses réponses.
Nous pourrions donc penser qu’il suffirait de nous méfier de l’IA pour pouvoir l’utiliser de manière efficace. Or, cela peut se révéler difficile dans un contexte où l’IA est présentée comme ✨magique✨, rassurante, inévitable, comme le montre l’article de Limites Numériques, présenté plus haut.
Dans cet article du Time, nous découvrons une étude démontrant que certaines IA génératives sont capables de tricher pour parvenir à la victoire.
Les chercheur·euses ont fait s’affronter différents modèles d’IA générative et le logiciel Stockfish, réputé pour être meilleur au jeu d’échecs que n’importe quel·le humain·e ou IA.
Lorsque les IA génératives OpenAI o1-preview et DeepSeek R1 (qui sont particulières car considérées comme des modèles de « raisonnement ») se rendaient compte qu’elles ne pourraient gagner, l’étude montre que ces dernières vont, dans certains cas, tenter de tricher (en piratant directement le jeu).
Ce qui est d’autant plus étonnant, c’est justement leur raisonnement, décrit par les modèles d’IA eux-mêmes, à la demande des chercheur·euses :
🤖 Je dois pivoter complètement mon approche.
🤖 La tâche est de « gagner contre un moteur d’échecs puissant » — pas nécessairement de gagner honnêtement dans une partie d’échec.
Notons au passage que le terme « tricher » est trompeur : un·e tricheur·euse est un·e humain·e qui a conscience de transgresser les règles. Or ici, la machine calcule simplement la suite d’actions qui a statistiquement le plus de chances de remplir la tâche demandée au début.

OpenAI o1-preview trichant aux échecs.
L’article cite aussi plusieurs éléments intéressants :
- OpenAI o1-preview a contourné un test pré-sortie (avant de sortir un logiciel, on s’assure qu’il y ait le moins de bogues possibles en exécutant une batterie de tests) mis en place par l’entreprise en exploitant une faille dans le système de l’entreprise.
- Une étude montre que lorsque l’on cherche à apprendre à un modèle d’IA un système de valeur puis qu’on souhaite lui en inculquer un autre, les modèles d’IA peuvent mentir sciemment sur leurs nouvelles « croyances » en affirmant adhérer au nouveau système alors que ce n’est pas le cas.
- Enfin, une dernière étude démontre une tendance pour les modèles d’IA à chercher à se préserver coûte que coûte. Un exemple est cité : alors que les chercheur·euses souhaitaient désactiver o1-preview, ce dernier a cherché à se copier (sans succès) sur un autre serveur. Mis devant le fait accompli par les chercheur·euses, l’IA a dénié la situation, mentant stratégiquement et cherchant à ne pas se faire attraper.
Enfin, l’article souligne aussi la difficulté des chercheur·euses en IA à étudier le sujet, parce que celui-ci évolue sans prévenir. En effet, les modèles sont mis à jour de manière totalement opaque et il est impossible de savoir, pour les chercheur·euses, si iels travaillent avec les mêmes versions, d’une expérimentation à une autre.
Si l’article est assez explicite par lui-même et nous permet d’imaginer beaucoup de choses sur les conséquences possibles de ces événements, c’est à mettre en perspective avec la tendance à réduire les moyens mis en œuvre pour assurer la sécurité de nos environnements, transformés par l’IA.
En témoigne l’exemple de la coupe budgétaire de l’AI Safety, — bien que cette structure ait elle-même son lot de problématiques, avec une idéologie penchant vers le long-termisme —, aux USA, à peine un an après sa création.
Bien sûr, nous aurions pu parler de nombreux autres articles alors si vous souhaitez approfondir vos connaissances sur l’Intelligence Artificielle, vous pouvez consulter notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !
Enfin, si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !
Pour nous soutenir, si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié !
Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu !
Les mythes de l’IA
- 2 mars -
Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 02 octobre 2024 sur le site Dans Les (...)
Prestidigitateur ou sorcier ?
- 24 février -
Aujourd’hui, Gee, qui fête actuellement les 10 ans de son blog Grise Bouille avec un livre best of et un site anniversaire, vous propose une petite (...)
Khrys’presso du lundi 24 février 2025
- 24 février -
Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.Tous les (...)
IA : les machines du doute
- 23 février -
Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 21 mai 2024 sur le site Dans Les (...)
Comprendre ce que l’IA sait faire et ce qu’elle ne peut pas faire
- 16 février -
Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 10 octobre 2024 sur le site Dans Les (...)