Blog
Tech

Episode 1: La Gen AI ? Ils en ont fait d’autres après la Gen Y et la Gen Z ?

Génération IA - par Vincent Barat

Episode 1: La Gen AI ? Ils en ont fait d’autres après la Gen Y et la Gen Z ?

Pas une semaine sans une nouvelle “dinguerie”. Et non, je ne parle pas de l’actualité internationale (on est plutôt sur un rythme quotidien de ce point de vue-là), mais bien de l’IA, et plus spécifiquement de la Gen AI, le buzzword ultime. Depuis maintenant 3 ans et le lancement public de ChatGPT, les médias, les conférences, les salons professionnels mais aussi certains “experts” et entrepreneurs opportunistes en font leurs choux gras. Les nouveaux modèles d’OpenAI, les offres de rachat de Musk, l’incursion chinoise et low cost de Deepseek qui fait chuter le cours en bourse de Nvidia, les questions de souveraineté européenne avec notre fleuron Mistral, l’agentique avec Manus… L’enchaînement de ces nouvelles ne contribue pas à rendre lisible le domaine.

Ceux qui nous suivent depuis longtemps chez Albert connaissent notre aversion au sujet des “valeurs” d’entreprise. Pour autant, le sens de la nuance (et l’ironie) nous caractérise plutôt bien : la factualité contre l’émotion, et la subtilité contre le simplisme. C’est pour cette raison que le sujet de l’IA n’a jamais été une plateforme marketing pour notre société, qui souhaite s’inscrire dans le temps et ne pas tomber dans les effets de mode. Avec sa “commodification”, nous pensons toutefois que le sujet arrive à un moment charnière qui appelle une clarification de notre positionnement.

Par notre activité, l’IA nous touche en effet de 3 manières :

  1. Son utilisation dans nos workflows quotidiens de production ;
  2. Son impact sur les effectifs et les compétences de nos clients ;
  3. Et bien sûr le meilleur pour la fin, son intégration dans notre offre de service, et quelques petites annonces !

Par cette série de publications qui suivra cette trame après une introduction, nous souhaitons partager avec notre communauté - composée principalement de professionnels RH, aux avant-postes de la transformation des organisations - le fruit de 3 ans d’observations, de réflexions et de développements.

Mais avant de parler des maux de l’IA, parlons des mots de l’IA.

Je vous rassure, l’idée n’est pas ici de revenir de manière extensive sur l’histoire de l’IA, car les ressources sur le sujet sont abondantes et probablement mieux faites que tout ce que je pourrais écrire. N’est pas Jamie ou ScienceEtonnante qui veut. Mais nous tenons à rappeler ici quelques points importants pour des néophytes. Sautez les paragraphes où vous n’apprenez rien, vous ne vexerez personne. Mais il nous paraît essentiel de démocratiser le jargon de l’IA pour ne pas se laisser enfumer par des vendeurs de rêve en silicium. 

Voici donc un petit dictionnaire amoureux de l’IA pour que vous vous y retrouviez. Sauf qu’il n’est pas dans l’ordre. Et que je ne suis pas spécialement amoureux de l’IA. Bref, vous avez compris l’idée.

IA vs GenAI : l’acception d’intelligence artificielle est très floue. Dans tout ce qui suit, nous utiliserons fréquemment le terme d’IA pour désigner la GenAI. Il y a encore quelques années, le Machine Learning était considéré comme une forme d’IA pour sa capacité à détecter des corrélations et à devenir prédictive (il est d’ailleurs utilisé dans Albert). Sa banalisation l’a relégué au rang de simple algorithme statistique, sauf aux yeux de l’UE, qui ne fait pas de distinction dans l’AI Act.

Gen AI : l’intelligence artificielle générative (Gen AI) est ainsi la partie visible de la vague technologique que nous observons, au même titre que le Web ou le mobile le furent en leur temps. La partie moins visible - l’IA “traditionnelle” - est déjà à l'œuvre depuis longtemps autour de nous, dans la recherche médicale, les algorithmes de recommandation, la détection de la fraude, les jeux vidéos, le trading hyperfréquence, etc. Ces IA sont hautement spécialisées sur une tâche unique. La Gen AI est différente. D’une part car elle est plus généraliste, mais aussi car elle “produit” des connaissances. Du moins, en apparence, car en réalité elle ne fait que générer du contenu. Il existe en réalité un vaste écosystème d’IA spécialisées : dans le son, l’image, le texte, la voix, la vidéo, et certaines qui arrivent à mobiliser plusieurs “spécialités” pour répondre à la demande (le fameux “prompt”) de l’utilisateur.

LLM : les exploits et les hallucinations les plus spectaculaires de la Gen AI sont souvent textuels. Dans ce cas, ils reposent sur des Large Language Model. Vous trouverez des milliers de vidéos de vulgarisation, mais je vais vous les résumer en une métaphore. Vous vous souvenez du T9 pour rédiger des SMS sur votre Nokia 3310 ? C’est peu ou prou la même chose. Mais au lieu de deviner le caractère ou le mot que vous essayez d’écrire, c’est une prédiction que fait le modèle sur les prochains cents ou milliers de mots suivants, sur une base d’entraînement très large. C’est pour ça que de manière notoire, c’est si dur pour lui de répondre à la question “combien y a-t-il de R à strawberry”. Dans la majorité des cas, les personnes qui posent la question s’intéressent aux R entre le E et le Y, pas au tout premier entre le T et le A.

Entraînement : comme mentionné précédemment, les algorithmes - y compris les LLM - reposent sur une mécanique d’entraînement, supervisée ou non. La manière dont on entraîne l’algorithme et le matériel de départ influe sur les réponses, d’où les fameux biais. Quand Yaël Braun-Pivet demande à deux IA différentes de représenter les chefs du Parlement, l’une représente deux hommes, l’autre un homme et une femme. Statistiquement, le premier n’a pas tort et ne fait que reproduire un biais historique. Le deuxième n’est pas fidèle à la réalité car il introduit un biais inclusif, mais dans le but de créer un résultat plus positif. Une question brûlante concerne donc le matériel d’entraînement de ces modèles : cela pose des questions de propriété intellectuelle (je suis journaliste, chanteur, créateur de contenu, auteur : je n’ai jamais donné l’autorisation à aucune IA de me singer, de me représenter ou de répondre à ma place à des questions), et bien sûr des questions de sécurité dans un contexte professionnel : je travaille en R&D dans un labo pharma. A force de poser des questions sur des sujets confidentiels à une IA “mutualisée”, est-ce que je ne prends pas le risque de l’entraîner par mégarde, permettant à un autre labo de bénéficier des résultats de mes recherches ? Est-ce que je ne prends pas également des risques de contamination ? Au bout de combien de fois à répéter que 1+1=3, l’IA finira-t-elle par le croire ?

Entreprises éditrices d’IA : on confond souvent les entreprises éditrices et les modèles d’IA. Les entreprises éditrices sont soit généralistes (Meta, Google, X…), soit spécialisées dans l’IA (OpenAI, Anthropic, Mistral…). Ces entreprises développent des modèles d’IA, qui se retrouvent ensuite dans des produits qu’elles distribuent ou non.

Produits : ce sont des applications commerciales détenues par des entreprises éditrices d’IA ou non. La plus connue est ChatGPT, qui appartient à OpenAI ; Grok appartient à X ; Le Chat à Mistral, Claude à Anthropic, etc. Certaines de ces applications commerciales sont payantes ou en modèle freemium. Pour tourner, elles nécessitent des infrastructures souvent coûteuses, et utilisent des puces bien spécifiques pour réaliser les opérations que l’on attend d’elles. Plus on réalise d’opérations, et plus c’est coûteux en énergie, en temps de calcul, etc. Pour quantifier cela, on parle de “tokens”. Certaines requêtes consomment quelques tokens (e.g. “Salut, comment ça va ?”) quand d’autres en consomment beaucoup plus (e.g. “réécris Guerre et Paix en écriture inclusive”). La vérité, c’est qu’aujourd’hui personne ne sait exactement combien coûte une requête, ni combien elle devrait être facturée au client pour avoir un modèle économique soutenable. Ces applications reposent sur des modèles d’IA, détenues ou non par l’entreprise. Par exemple, si vous utilisez Dust.tt, une solution pour créer facilement des assistants à base d’IA, vous pouvez choisir le modèle qui tourne derrière. Et pourtant Dust n’édite aucun modèle d’IA par eux-mêmes.

Modèles d’IA : c’est un modèle statistique pré-entraîné avec des informations actualisées à une certaine date. Ces modèles sont caractérisés par leur performance, le nombre de paramètres qu’ils possèdent, leur quantization, leur “poids”... Puisque nous sommes sur le sujet de ces opérations, pas de magie ici, on parle littéralement de multiplications et d'additions. Mais des milliards de fois par seconde. Il se trouve que les puces que l’on trouve dans les cartes graphiques sont très fortes pour ce type de calcul, d’où les situations de pénuries que l’on connaît (et les fluctuations des cours d’action des producteurs de GPU). Parmi les modèles connus : GPT 3.5, GPT 4, GPT 4o, o1 sont tous des modèles disponibles dans ChatGPT (OpenAI). Sonnet 3.7 est disponible chez Claude (Anthropic), Deepseek R1 chez Deepseek… Certains de ces modèles sont dits ouverts, d’autres fermés. Pour ceux qui sont ouverts (par exemple Mistral 7B de MistralAI), n’importe qui peut le télécharger. Oui, même vous si vous le souhaitez ! Moyennant quelques dizaines de gigaoctets, vous pouvez installer des LLM sur votre ordinateur (je vous recommande LM Studio pour débuter). Il y a même des genres d’App Store pour ça ! Vous avez peut-être déjà entendu parler de Huggingface, la licorne Française qui propose des centaines de modèles. Bien sûr, les modèles les plus puissants nécessitent des équipements particulièrement coûteux (des cartes graphiques en série, voire des serveurs munis de puces spécialisées). 

Plateformes d’IA et API : comme tout le monde ne peut pas transformer la chambre du petit dernier en datacenter, il est parfois plus économique de “louer” de l’infrastructure pour faire tourner des modèles. On fait ensuite appel à distance aux capacités de calcul de l’IA qui sont délocalisées dans le datacenter. Quand vous entendez parler d’API, c’est souvent que l’on désigne par métonymie (ou par synecdoque, y’a débat) une plateforme hébergée. Schématiquement, les requêtes sont effectuées dans un produit, qui va “taper” dans l’API de l’IA, située ailleurs, avant de revenir dans le produit. Les grands éditeurs proposent pratiquement tous des plateformes. Dans la ruée vers l’or, ce sont les vendeurs de pelle qui s’enrichissent…

Nombre de paramètres : chaque fois que vous entendez 7B, 131B, etc., c’est en fait la complexité du modèle qui est reflétée dans cette métrique. Le B veut dire milliard. Donc un modèle 131B a 131 milliards de paramètres. Plus il y a de paramètres et mieux c’est. En apparence, c’est celui qui a la plus grosse (complexité) qui est le plus fort. Mais certains avancent que ce n'est pas la taille qui compte, mais comment on l’a entraîné. Tous les modèles ne sont pas égaux.

Quantization : parfois, à modèle et complexité équivalents, un modèle est plus “léger”. Souvent, il utilise des variables avec une “quantization” différente (e.g. 4 bits au lieu de 64 bits). En langage simple : les variables utilisées sont plus petites, donc le modèle est plus approximatif, mais conserve une bonne partie de ses fonctionnalités.

Distillation : on ne parle pas ici de Cognac. Attention, accrochez-vous, on monte d’un cran niveau connaissance en Gen AI. Vous vous rappelez quand je disais que les algorithmes sont entraînés, de manière plus ou moins supervisée ? Imaginez que j’entraîne un modèle, mais avec un autre modèle d’IA, histoire de l’imiter ni vu ni connu. La distillation, c’est exactement ça : je prends Llama 8B, et je lui apprends à se comporter comme Deepseek R1

L’AGI : l’Artificial General Intelligence. La quête ultime, la fin du game : une IA autonome si puissante dans tous les domaines qu’elle dépasse l’humain. Aujourd’hui, c’est un concept théorique devenu un argument marketing. Les modèles récents (o1 et o3 chez ChatGPT, R1 chez Deepseek) ont par exemple introduit la capacité de raisonnement, qui nous rapprocherait de l’AGI. 

Le raisonnement : En termes basiques, l’IA est capable de décomposer le problème en plus petit morceaux (Chain of Thought). Mais aussi de revenir en arrière dans ses prédictions de texte (vous vous rappelez, le T9 ?), pour répondre quelque chose de plus cohérent, moins sujet à des hallucinations, moins rapide aussi, et plus propre. C’est parfois troublant à utiliser, car on a vraiment l'impression que l’IA est en train de réfléchir. Mais attention, il ne s’agit absolument pas de réflexion au sens cognitif du terme. Cette perception est alimentée par une simple astuce : l’IA affiche du texte pendant qu’elle répond au prompt. Ce texte donne l’impression à l’utilisateur de voir le train de pensée de la machine. Pour couronner le tout, une entreprise comme OpenAI mise toute sa communication sur un marketing de la peur à grands coups de tweets : “on a testé en interne notre prochain modèle qui sort le mois prochain, et oulalah, on s’est fait peur. Notre responsable Ethic & Compliance a même carrément démissionné tellement ça ressemble à un véritable humain. Quand je regarde le film Oppenheimer de Nolan, j’ai l’impression de regarder mon futur biopic. Au passage : le nouveau modèle sera disponible uniquement pour les clients payants. Abonnez-vous, bisous”.

IA Agentique : le truc chaud du moment. Imaginez un assistant IA qui ne se contente pas de vous suggérer une date pour une réunion, mais envoie l’invitation, réserve une salle et ajuste l’horaire si quelqu’un décline. L’IA agentique, c’est exactement ça : le modèle (souvent un LLM) ne se contente pas de répondre passivement à une requête, mais agit de manière autonome pour atteindre un objectif donné. Les limites aujourd’hui sont la fiabilisation. Parce que si un chatbot hallucine, devient incohérent ou biaisé, ça va encore. Mais si c’est un agent qui hallucine et qui agit en faisant n’importe quoi, là ça devient dangereux.

N’hésitez pas à nous faire part de vos commentaires ou suggestions d’ajout à cet inventaire à la Prévert. Il nous semblait en tout cas indispensable de passer par cette étape pour parler de la suite.

Recevez nos dernières actus

Rendez votre entreprise future-proof !