Le chatbot a popularisé les LLM (modèles de langage), mais il en montre aussi les limites. Ce format “chat” suppose que l’utilisateur sache quoi demander, comment le formuler, et le fasse à chaque fois. C’est une interaction ponctuelle, désincarnée, déconnectée du flux de travail réel.
“Aujourd’hui, la majorité des gens en entreprise se retrouvent face à une grande barre de chatbot.
Ils se disent : qu’est-ce que je vais bien pouvoir lui poser comme question ?”
— Pierre de La Grand’Rive, CEO de Delos
Ce doute est révélateur : l’interface est perçue comme puissante… mais floue. Elle impressionne, mais elle intimide. Résultat : une adoption faible, un usage superficiel, un potentiel largement sous-exploité.
Un prompt, c’est une instruction que l’on écrit dans un chatbot pour déclencher une action de l’IA.
Exemple : “Traduis ce texte en anglais dans un style professionnel, en respectant les spécificités culturelles.”
Plus le prompt est précis, plus le résultat est fiable — mais écrire un bon prompt demande du temps, de la méthode… et parfois des compétences que peu d’utilisateurs ont.
La logique du chatbot part d’un bon principe : créer une interface universelle, qui s’adapte à tous les besoins. Mais dans les faits, elle ne s’intègre pas aux gestes du quotidien.
Prenons un exemple simple : la traduction. Les grands modèles savent très bien traduire un texte, à condition d’être bien guidés. Mais demander à un utilisateur de reformuler chaque consigne à la main est contre-productif. Cela complexifie ce qui, dans un outil classique, serait une action fluide et immédiate.
Chez Delos, l’approche est différente. Plutôt que de proposer un chatbot générique, la plateforme se compose d’applications dédiées, chacune pensée pour un usage précis : rédiger, traduire, synthétiser, rechercher, interagir avec des documents.
L’objectif : créer des interfaces pensées pour être utilisées 50 fois par jour, pas deux fois par mois.
“Faire de la traduction dans un chatbot, c’est désagréable.
Ce qu’on veut, c’est une interface qu’on peut utiliser 50 fois dans la journée.”
— Pierre de La Grand’Rive
Dans Trad, par exemple, la traduction s’affiche au fil de la frappe, phrase par phrase, dans une interface inspirée de DeepL mais portée par des LLM plus récents. L’utilisateur peut corriger, affiner, comparer plusieurs formulations. Il n’a jamais à écrire de prompt.
Le basculement est stratégique : on ne parle plus d’assistance, mais d’outillage.
Le chatbot reste un outil “one shot”, où l’utilisateur doit porter la charge cognitive : imaginer l’instruction, vérifier le résultat, recommencer s’il est insatisfaisant.
À l’inverse, une application IA bien conçue intègre :
Ce que ça change, c’est que l’IA devient un outil de travail, pas une boîte noire.
Ce choix d’interface n’est pas anecdotique. Il conditionne le taux d’usage, donc la valeur réelle dégagée.
Un bon modèle mal intégré, c’est un budget mal investi.
Dans ce contexte, le chatbot n’est pas neutre : il oriente les projets IA vers des logiques exploratoires, peu compatibles avec les objectifs d’efficacité et de transformation.
À l’inverse, une interface claire, contextualisée, orientée métier réduit la friction, structure l’usage, et permet une adoption massive.
Le chatbot a marqué un tournant. Il a rendu l’IA visible, tangible, accessible.
Mais il est temps d’ouvrir la phase suivante : celle de l’intégration.
Une IA utile est une IA qui s’insère dans les outils, dans les gestes, dans les process. Et pour cela, il faut sortir du paradigme conversationnel.
Ce que montre Delos, c’est que l’alternative existe déjà : une IA intégrée par usage, et pensée dès le départ pour être adoptée.
La question n’est donc plus “quel modèle utiliser ?”, mais bien :“quelle interface pour quels usages ?”