Cloud & Data
Méthodologie
Technologies
March 13, 2025

IA for All & Devs

Découvrez une analyse de l'impact des LLMs sur la productivité, avec des conseils pratiques pour optimiser leur utilisation et éviter les pièges courants.

Nous suivre

Aujourd'hui, tout le monde en a entendu parler et est probablement spammé par ce sujet en continu.

Je parle de cette fameuse révolution de l'IA portée par ces "LLM".

Tous les deux jours, dans les médias ou sur les réseaux, nous sommes harcelés par les dernières nouveautés : nouveau modèle X sorti, modèle Y devenu obsolète, US vs Chine, OpenAI, open source, DeepSeek, Data privacy, « tout le monde sera remplacé ».

Je vous propose un article pour vous introduire à ce monde et essayer de vous donner, selon moi, les principales guidelines à suivre pour obtenir un retour sur investissement rapide.

La réalité, c'est que derrière ce "bruit médiatique" constant se cache une véritable révolution technologique. Une révolution qui, contrairement à certaines précédentes, n'est pas qu'un effet d'annonce.

Avant de comprendre pourquoi et comment cette technologie va impacter notre quotidien, j’aimerais d’abord soulever un point très important qui me tient à cœur.

Après des centaines d'heures d'utilisation d’assistants IA compressées, voici mon constat principal :

La différence entre utiliser l'IA et la maîtriser est gigantesque.
Et le point essentiel est : continuez d'apprendre vous-même !

L'IA boostera vos compétences, c'est une évidence...

Cependant, voici le petit secret : l'effet sur ta productivité est exponentiel en fonction de ton niveau :

  • Niveau Junior × IA = 2× productivité
  • Niveau Senior × IA = 100× productivité
  • Niveau Expert × IA = 1 000 000× productivité

Car vous perdrez beaucoup moins de temps dans de fausses pistes. Vous l'aiguillerez plus rapidement sur les bonnes architectures et vous savez déjà ce qu'est un projet durable.

Contrairement au spaghetti qu'on peut avoir en utilisant les IA de manière sporadique et non maîtrisée.

Un peu d'histoire : des débuts modestes aux LLMs

L'intelligence artificielle n'est pas née hier. Dès le XIXe siècle, les premières théories mathématiques qui composent le soubassement de l’IA émergeaient déjà. Mais c'est dans les années 1960, après l'invention de l'ordinateur moderne, qu’elle connaîtra ses premières vraies applications concrètes.

À l'époque, on parlait principalement de régressions linéaires et d'algorithmes simples : des modèles mathématiques qui tentaient des prédictions relativement basiques, comme prédire une valeur Y en se basant sur une variable X. C'était le début du "machine learning", mais faute de puissance de calcul suffisante, ces techniques sont restées relativement limitées pendant des décennies.

Vers 2010, nous constatons le développement rapide du machine learning et du deep learning, avec de plus en plus de NLP (natural language processing) : l’ancêtre des LLMs.

En 2017, Google publie « Attention is All You Need », marquant l’émergence d’un modèle qui s’appellera TRANSFORMERS, révolutionnant ainsi le deep learning, notamment pour les données séquentielles… à tel point que TOUS les LLMs performants aujourd’hui se basent dessus.

Ces modèles ne se contentent plus de simples prédictions linéaires : ils prédisent le prochain mot en se basant sur toute la séquence de texte qui précède. C'est là qu'interviennent les fameux "tokens", les briques de base du langage pour ces modèles, dont tout le monde entend parler aujourd’hui.

Qu'est-ce qu'un LLM concrètement ?

Un LLM est un modèle d'intelligence artificielle entraîné sur d'immenses quantités de textes. Imaginez une entité qui a "lu" pratiquement tout Internet : livres, articles, code, conversations. Cette masse de données lui permet de comprendre et de générer du texte de manière étonnamment naturelle.

Pour simplifier, imaginez que le modèle calcule la probabilité de chaque mot possible du lexique en fonction de tout ce qui a été écrit avant. Pour éviter la monotonie et favoriser la créativité, le modèle ne choisit pas systématiquement le mot le plus probable, mais sélectionne parmi les plus probables selon un degré d’"originalité" paramétré.

C'est pour cela qu'un même prompt peut générer des réponses différentes mais cohérentes.

Si vous êtes technique et que vous voulez vraiment comprendre le fond des choses, je vous invite à vous intéresser profondément au machine learning, qui est la base fondamentale, avant de passer au deep learning, puis enfin au NLP et aux nouvelles architectures Transformers, qui sont la dernière brique de spécialisation pour les LLMs.

Avec bientôt l’émergence du concept des LCM (Large Concept Models), si vous voulez aller plus loin…

Les LLMs ne sont qu’une approximation de l’intelligence

Sachant tout cela, il est important de garder en tête que les LLMs ne sont au fond que des objets mathématiques très complexes qui ne font qu’approximer le langage et les connaissances humaines : ils peuvent donc se tromper entièrement et grossièrement.

Parfois, il suffit de demander « en es-tu sûr ? » pour qu’il donne la réponse diamétralement opposée.

Mais au-delà de cette définition technique, ce qui compte vraiment, c'est ce que cela change pour nous. Car ils peuvent booster notre productivité et notre efficacité sans commune mesure s'ils sont bien utilisés.

Pour la suite, Je vais me concentrer sur les cas pratiques pour Devs mais cela pourrait être généralisé à tout le monde:

  • Un assistant disponible 24/7 pour débugguer notre code
  • Un rédacteur technique pour notre documentation
  • Un sparring partner pour réfléchir à nos architectures
  • Un accélérateur pour nos tâches répétitives

PS : Gardez en tête que plus vous EXCELLEZ dans votre domaine, plus vous pourrez en tirer. Sinon il vous guidera souvent dans la mauvaise direction et vous fera perdre tout le temps qu’il vous a fait gagner au début. Donc restez toujours critique par rapport à ses réponses et surtout keep learning !

Comment utiliser les LLMs efficacement ?

1.Les outils à votre disposition

Les assistants conversationnels généralistes (ChatGPT, Claude, Gemini, Mistral, etc.)

Ces modèles sont accessibles via des interfaces de chat et excellent dans la compréhension générale et la résolution de problèmes. Chacun a ses avantages et ses inconvénients.

Personnellement, malgré toute la hype quotidienne autour de nouveaux modèles, j’utilise principalement Claude depuis le début. Car le plus important n’est plus le modèle LLM en lui-même, mais vos habitudes et vos frameworks avec lui.

Par exemple, sur Claude payant, on a accès aux « projets », qui permettent de travailler sur un contexte particulier en continu. J’en suis friand, car cela me fait gagner énormément de temps dans ma manière de travailler.

Dans un futur proche, le paysage de ces assistants risque d’évoluer très vite. Mais le plus intéressant n’est pas de switcher à chaque nouveauté. Ce qui compte, c'est de vous familiariser avec l’un d’eux en particulier pour en tirer le maximum.

La différence de rendement entre simplement l'utiliser et bien l'utiliser peut aller jusqu’à un facteur ×10.

Disclaimer : N’envoyez surtout pas de données personnelles ou confidentielles, à moins d’utiliser un modèle open source en local (Qwen, DeepSeek ou Llama en self-hosted).

Mon conseil : visez l’excellence sur un assistant plutôt que de céder à la dernière tendance.

(NDLR : Deux jours après avoir écrit cet article, LeChat de Mistral est sorti. Beaucoup de bruit, comme à chaque nouvelle sortie. Mais 10× plus rapide dit-on. Passer de 100 ms à 1 s changera-t-il ta vie ? Deux jours avant, c’était Gemini Flash 2.0, lui-même 5× plus rapide.
Vous avez compris le topo. Concentrez-vous sur un outil et poussez ses limites au maximum.)

Cas Pratique :

Claude et beaucoup de LLMs sont ce qu’on appelle des « YES MAN ». Si, pour résoudre un problème, vous dites « Moi, je pense que c’est ça le résultat », il va partir dans cette direction, même si c’est faux.

Pourquoi ?

Parce que, comme nous l’avons vu, ils génèrent les tokens en fonction du contexte précédent. Si les phrases d’avant orientent le raisonnement dans une direction donnée, les probabilités font que le LLM continuera dans cette voie.

Pour éviter cela, il faut souvent spécifier des consignes claires, par exemple : « Ne saute pas aux conclusions, commence par faire le raisonnement étape par étape avant de choisir une réponse. »

Sans cela, le LLM risque de générer un token dès le début, disons « solution A », et tout son raisonnement sera alors fortement influencé par ce premier choix, rendant difficile l’exploration d’autres solutions.

2. Les outils spécialisés pour le développement

Dans le monde professionnel, GitHub Copilot reste aujourd'hui la référence en matière d'assistant de code. Son intégration directe dans l'IDE en fait un outil extrêmement puissant pour :

  • La complétion de code en temps réel
  • La génération de tests
  • La suggestion de fonctions complètes
  • La documentation inline

Cela a un coût mais le gain de productivité est généralement largement rentabilisé. Les alternatives comme CodeWhisperer ou Tabnine peuvent être intéressantes, mais comme pour les assistants conversationnels, mieux vaut maîtriser un outil que d'en effleurer plusieurs.

Personnellement, quand il n’y a pas de VPN pro qui bloque,  j’utilise plutôt Cursor, un fork de VSCode spécialement conçu pour maximiser la productivité des développeurs avec l'IA. Ce qui le rend particulièrement intéressant :

  • Une interface de chat intégrée directement dans l'IDE
  • Des commandes rapides pour générer, expliquer ou débugguer du code
  • La possibilité de sélectionner du code et interagir directement avec l'IA à son sujet
  • Des fonctionnalités de refactoring assisté par IA
  • Une expérience unifiée qui combine les avantages de VSCode et d'un assistant IA

La philosophie de Cursor est différente : plutôt que d'être un simple assistant de complétion, il se positionne comme un véritable partenaire de développement qui comprend votre projet dans son ensemble.

Il y’en a d’autres aussi tels que windsurf mais encore une fois je vous conseille d’en choisir un et pousser ses limites au maximum.
Bien sûr de temps en temps, vous pouvez vous intéresser à ce qui se fait ailleurs et s’il n’y a pas de nouveaux jouets révolutionnaires.

Les bonnes pratiques pour maximiser leur utilité

Pour bien utiliser les LLMs, il faut avant tout structurer son besoin. C'est finalement très similaire à une interaction avec un collègue : il faut correctement expliquer le contexte et exprimer clairement ce qu'on attend. D'ailleurs, cette étape de formalisation est souvent bénéfique en elle-même - parfois, rien que le fait de structurer clairement notre problème nous aide à entrevoir la solution.

Points clés pour une utilisation efficace :

1.Contextualisez votre demande

  • Expliquez le contexte technique (langage, framework, contraintes)
  • Précisez ce que vous avez déjà essayé
  • Partagez les erreurs rencontrées si pertinent

2. Soyez précis dans vos attentes

  • Définissez clairement le résultat souhaité
  • Indiquez les contraintes spécifiques
  • Mentionnez les points particuliers à prendre en compte

3.Itérez si nécessaire

  • Si la réponse n'est pas satisfaisante, précisez votre demande
  • Construisez progressivement vers la solution
  • N'hésitez pas à recentrer la discussion si elle s’égare

Cette étape de structuration est cruciale - elle représente souvent la différence entre des réponses génériques et des solutions vraiment adaptées à votre besoin.

Exemple 1 : Debug d'une erreur

❌ Mauvais prompt :

J'ai une erreur dans mon code React, tu peux m'aider ?

✅ Bon prompt :

Je rencontre une erreur dans mon composant React qui gère un formulaire de connexion.

Erreur : "Cannot read property 'value' of undefined"

Contexte :

- React 18.2

- Utilisation de useState pour gérer l'état du formulaire

- L'erreur survient uniquement lors de la soumission

Voici le code concerné : [code]


Exemple 2 : Génération de documentation

❌ Mauvais prompt :
Peux-tu documenter cette fonction ?

✅ Bon prompt :

Peux-tu générer une documentation pour cette fonction d'authentification en respectant :

- Format JSDoc

- Description des paramètres et du retour

- Exemple d'utilisation

- Mention des cas d'erreur possibles

Code de la fonction : [code]

Exemple 3 : Aide sur l'architecture

❌ Mauvais prompt :
Comment je peux structurer mon application ?

✅ Bon prompt :

Je développe une application e-commerce avec :
- Frontend : React + TypeScript
- Backend : Node.js + Express
- Base de données : PostgreSQL

Je cherche des conseils sur :
1. La structure des dossiers
2. La gestion de l'état (Redux vs Context)
3. L'organisation des routes API

Contraintes particulières : - Doit supporter 10k utilisateurs - Multilingue - PWA requise

L'avenir des LLMs dans le développement

Les LLMs sont plus qu'une simple mode passagère – ils représentent une véritable évolution dans notre façon de travailler. Cependant, il est crucial de garder certains points à l'esprit :

Ce qu'il faut retenir :

  • Les LLMs sont des outils puissants mais restent des assistants, pas des remplaçants
  • La clé est de maîtriser un outil plutôt que d'en effleurer plusieurs
  • Une bonne structuration de vos demandes est essentielle pour des résultats optimaux
  • La vérification humaine reste indispensable

Perspectives d'avenir :

  • Les modèles vont continuer à s'améliorer
  • L'intégration dans nos outils va se renforcer
  • De nouveaux cas d'usage vont émerger
  • Les bonnes pratiques d'utilisation vont s'affiner

Le plus important n'est pas de suivre chaque nouvelle sortie, mais de développer une expertise solide avec les outils que vous choisissez d’utiliser.

Attention à la dépendance

Il est crucial de trouver le bon équilibre dans l'utilisation des LLMs. Si ces outils sont puissants, une dépendance excessive peut devenir contre-productive :

Les pièges à éviter :

  • Ne pas réfléchir par soi-même avant de poser une question
  • Déléguer systématiquement les tâches basiques à l'IA
  • Perdre l'habitude de lire la documentation officielle
  • Oublier les fondamentaux du développement

Utilisations recommandées :

  • Générer du boilerplate pour démarrer rapidement
  • Assistance sur la syntaxe et les erreurs
  • Exploration de nouvelles technologies
  • Accélération des tâches répétitives

L'objectif est d'utiliser l'IA comme un accélérateur, pas comme une béquille. Paradoxalement, une surutilisation peut vous faire perdre plus de temps que vous n'en gagnez :

  • Temps passé à formuler des demandes pour des tâches simples
  • Perte progressive de compétences fondamentales
  • Difficulté croissante à résoudre des problèmes sans assistance

La règle d'or : si vous pouvez faire quelque chose rapidement par vous-même, faites-le. Gardez l'IA pour les tâches où elle apporte une réelle valeur ajoutée.

Article par B.ERRAJI, consultant OSSIA SONATE

Découvrez aussi

Inscrivez-vous à notre newsletter