Les fonctionnalités de l’IA SaaS rencontrent les applications sans douves

Quand l'IA SaaS rencontre des applications sans faille

Plusieurs entreprises SaaS d’entreprise ont récemment annoncé des fonctionnalités d’IA génératives, ce qui constitue une menace directe pour les startups d’IA qui manquent d’un avantage concurrentiel durable

En juillet dernier, nous avons exploré les startups d’IA génératives de la promotion W23 de Y Combinator, en particulier les startups exploitant de grands modèles linguistiques (LLM) comme GPT qui alimente ChatGPT. Nous avons identifié certaines tendances importantes avec ces startups, comme la focalisation sur des problèmes et des clients très spécifiques (par exemple, le contenu marketing pour les PME), les intégrations avec les logiciels existants (par exemple, avec les plates-formes CRM comme Salesforce), la capacité à personnaliser de grands modèles linguistiques pour des contextes spécifiques (par exemple, la voix de la marque de votre entreprise).

Une partie secondaire de l’article moins mise en évidence concernait les risques des douves — citant à l’époque :

Un risque clé avec plusieurs de ces start-ups est le manque potentiel de douves à long terme. Il est difficile d’en tirer trop de conclusions étant donné le stade de développement de ces start-ups et les informations publiques limitées disponibles, mais il n’est pas difficile de trouver des failles dans leur défense à long terme. Par exemple:

Si une start-up est basée sur l’idée de prendre des LLM de base (grands modèles linguistiques) comme GPT, de construire des intégrations dans un logiciel d’assistance pour comprendre la base de connaissances et le style d’écriture, puis de générer des réponses provisoires, qu’est-ce qui empêche un géant du logiciel d’assistance (pensez à Zendesk, Salesforce) de copier cette fonctionnalité et de la rendre disponible dans le cadre de leur suite de produits ?

Si une start-up développe une interface cool pour un éditeur de texte qui facilite la génération de contenu, qu’est-ce qui empêche Google Docs (qui expérimente déjà la rédaction automatique) et Microsoft Word (qui expérimente déjà des outils Copilot) de copier cela ? Et qu’est-ce qui les empêche de fournir un produit inférieur de 25% et de le donner gratuitement avec une suite de produits existante (par exemple, Microsoft Teams qui s’empare de la part de marché de Slack) ?

C’est exactement ce qui s’est passé ces derniers mois. Plusieurs grandes entreprises SaaS ont annoncé et/ou lancé leurs produits d’IA génératifs : Slack, Salesforce, Dropbox, Microsoft et Google, pour n’en citer que quelques-unes. C’est une menace directe pour les startups d’IA générative qui construisent des applications de productivité utiles pour les clients de l’entreprise, mais qui ont un avantage concurrentiel durable limité (c’est-à-dire sans douves). Dans cet article, nous allons approfondir :

  • Récapitulatif de la chaîne de valeur de l’IA
  • Les fonctionnalités d’IA récentes des entreprises SaaS d’entreprise
  • Comment les startups peuvent construire des douves dans cet environnement

Récapitulatif de la chaîne de valeur de l’IA

Nous ne passerons pas beaucoup de temps là-dessus, mais juste pour vous rappeler, une façon de penser à la façon dont les entreprises peuvent tirer de la valeur de l’IA est à travers le concept de la chaîne de valeur de l’IA. Plus précisément, vous pouvez diviser la chaîne de valeur en trois couches :

  • Infrastructure (par exemple, NVIDIA qui fabrique des puces pour exécuter des applications d’IA, Amazon AWS qui fournit des services informatiques en nuage pour l’IA, Open AI qui fournit de grands modèles linguistiques comme GPT pour la création de produits)
  • Plate-forme (par exemple, Snowflake qui fournit une solution basée sur le cloud pour gérer tous vos besoins en matière de données en un seul endroit, de l’ingestion au nettoyage en passant par le traitement)
  • Applications (par exemple, une startup construisant un produit qui aide les PME à créer rapidement du contenu marketing)
Chaîne de valeur de l'IA ; Source : auteur

Bien que la vague de l’IA générative ait commencé avec le lancement de ChatGPT par OpenAI, qui est alimenté par le modèle GPT (couche infrastructure), il devient de plus en plus clair que la couche infrastructure se banalise, avec plusieurs grands acteurs entrant sur le marché avec leurs propres LLM, y compris Facebook (LLaMA), Google (LaMDA), Anthropic, pour n’en citer que quelques-uns. La banalisation s’explique par le fait que la plupart de ces modèles sont entraînés à l’aide du même corpus de données disponibles publiquement (comme CommonCrawl, qui parcourt les sites internet et Wikipedia).

En dehors de cette base de données, chaque grande entreprise disposant d’un important corpus de données de première partie est soit en train de protéger ses données pour elle-même, soit en train de créer des modèles de licence, ce qui signifie que ces données vont soit être indisponibles, soit être disponibles pour tous les fournisseurs de modèles pour l’entraînement, c’est-à-dire la marchandisation. C’est une histoire similaire à celle qui s’est jouée sur le marché de l’informatique en nuage où Amazon AWS, Microsoft Azure et Google Cloud possèdent désormais une grande partie du marché mais se font concurrence de manière agressive.

Alors que la couche des plateformes est un peu moins marchandisée et qu’il reste probablement de la place pour davantage d’acteurs pour répondre à divers besoins des clients (par exemple, les start-ups par rapport aux PME par rapport aux clients entreprises), elle se dirige vers la marchandisation et les grands acteurs commencent à renforcer leur offre (par exemple, Snowflake qui est une plateforme d’entreposage de données a récemment acquis Neeva pour débloquer l’application des LLM pour les entreprises, Databricks qui est une plateforme d’analyse a acquis MosaicML pour alimenter l’IA générative pour leurs clients).

Par conséquent, la majorité de la valeur de l’IA sera générée au niveau de l’application. La question ouverte, cependant, est de savoir quelles entreprises sont susceptibles de profiter des applications débloquées par de grands modèles linguistiques (comme GPT). Sans surprise, sur 269 start-ups de la promotion W23 de Y Combinator, ~31% avaient un tag AI autodéclaré. Alors que les applications sont toutes objectivement utiles et débloquent de la valeur pour leurs clients, en particulier dans le monde du SaaS d’entreprise, il devient de plus en plus clair que les entreprises de SaaS en place sont dans une bien meilleure position pour profiter des avantages de l’IA.

Fonctionnalités récentes en matière d’IA des entreprises SaaS

Il y a eu une multitude d’annonces de la part d’entreprises SaaS au cours des dernières semaines. Passons en revue quelques-unes.

Slack a d’abord commencé en soutenant le bot ChatGPT pour fonctionner au sein de votre espace de travail Slack, à la fois pour résumer les fils de discussion et pour vous aider à rédiger des réponses. Cela a rapidement été étendu pour prendre en charge le bot Claude (Claude est l’équivalent d’Anthropic du modèle GPT). Plus important encore, Slack a annoncé son propre IA générative intégrée nativement dans l’application, qui prend en charge un large éventail de fonctionnalités de résumé sur l’ensemble des fils de discussion et des canaux (par exemple, racontez-moi ce qui s’est passé dans ce canal aujourd’hui, dites-moi ce qu’est le projet X). Ce qui aurait pu être des plugins créés par des start-ups est maintenant une fonctionnalité native créée par Slack, car Slack peut facilement choisir des modèles comme GPT prêts à l’emploi et construire une fonctionnalité d’IA générative. Ce n’est pas terriblement difficile à faire et cela évite également à Slack les tracas liés aux intégrations / aux expériences utilisateur médiocres provenant de plugins inconnus.

Une autre annonce est venue de Salesforce. Leur produit Einstein GPT est positionné comme une IA générative pour leur CRM. Il permettra aux utilisateurs de Salesforce de faire des requêtes sur une large gamme de sujets (par exemple, qui sont mes meilleurs prospects en ce moment), de générer automatiquement et d’itérer sur des brouillons d’e-mails, et même de créer des flux de travail automatisés basés sur ces requêtes. Il est probable que cette fonctionnalité semble meilleure sur les captures d’écran que dans la réalité, mais il est fort probable que Salesforce puisse construire un produit relativement fluide en un an. En fait, c’est exactement la fonctionnalité que certaines start-ups d’IA générative construisent aujourd’hui. Bien que cela soit utile à court terme, le succès de ces start-ups dépend non seulement de leur capacité à être meilleures qu’Einstein GPT, mais aussi de leur capacité à être tellement meilleures qu’un acheteur de SaaS en entreprise serait prêt à accepter les frictions liées à l’intégration d’un nouveau produit (je ne vais pas nommer de start-ups dans ma critique car construire des produits à partir de rien est difficile et écrire des critiques est plus facile).

Dans le même ordre d’idées, Dropbox a annoncé Dropbox Dash, qui est présenté comme une recherche universelle alimentée par l’IA. Il prend en charge un large éventail de fonctionnalités, notamment des réponses aux questions et des résumés de tous les documents stockés sur Dropbox, ainsi que la réponse à des questions spécifiques basées sur le contenu d’un document (par exemple, quand expire ce contrat). Là encore, il existe aujourd’hui des start-ups d’IA générative qui construisent essentiellement ces fonctionnalités morceau par morceau, et Dropbox a un chemin plus facile vers le succès à long terme étant donné qu’ils ont déjà accès aux données dont ils ont besoin et la capacité de créer une interface fluide dans leur produit.

La liste se poursuit :

  • Zoom a annoncé Zoom AI qui fournit des résumés de réunions, répond aux questions en cours de réunion si vous avez manqué quelque chose et souhaitez vous rattraper, et résume les discussions revêtues. Plusieurs start-ups construisent aujourd’hui ces fonctionnalités en tant que produits séparés (par exemple, des outils de prise de notes).
  • Microsoft 365 Copilot va lire vos e-mails non lus et les résumer, répondre aux questions à partir de tous vos documents, et rédiger des documents, entre autres. Ces capacités seront également intégrées de manière transparente dans les interfaces de produits tels que Word, Excel, OneNote et OneDrive.
  • Google a un produit équivalent appelé Duet AI pour leur suite de produits de productivité
  • Même OpenAI (bien qu’il ne soit pas une société SaaS dominante) a lancé ChatGPT enterprise qui peut essentiellement se connecter à tous les outils d’une entreprise et fournir des réponses faciles à toute question d’un employé

Je ne prétends nullement que la bataille est terminée. Si vous avez utilisé des produits d’IA générative jusqu’à présent, il y a des moments de surprise, mais aussi des moments de déception. Les arguments pour les produits mentionnés ci-dessus sont attrayants, mais la plupart d’entre eux sont soit en phase de test, soit des annonces de nouvelles décrivant un état futur du produit.

Il existe également plusieurs problèmes non résolus limitant l’adoption de ces produits. Les prix sont très variés, certains produits proposant des fonctionnalités d’IA gratuitement pour concurrencer, tandis que d’autres produits plus larges de type copilot facturent des frais par siège. Microsoft 365 Copilot est au prix de 30 $ par utilisateur/mois et ChatGPT enterprise est d’environ 20 $ par utilisateur/mois – bien que cela puisse sembler acceptable de prime abord pour un consommateur, plusieurs acheteurs d’entreprise pourraient trouver ce prix ridicule à grande échelle, surtout étant donné que les coûts augmentent rapidement pour des milliers d’employés. Les considérations liées au partage des données sont un autre obstacle majeur, étant donné que les entreprises hésitent à partager des données sensibles avec des modèles de langage (malgré les offres d’IA d’entreprise affirmant explicitement qu’elles n’utiliseront pas les données des clients à des fins de formation).

Cela dit, ces problèmes sont solubles, et l’accent mis par les grandes entreprises SaaS sur la création de fonctionnalités d’IA signifie que ces obstacles seront levés à court terme. Cela nous ramène au problème du fossé – les start-ups d’IA générative qui construisent des produits pour les clients d’entreprise doivent trouver des fossés solides si elles veulent continuer à prospérer face aux fonctionnalités d’IA des incumbents SaaS.

Comment les start-ups peuvent-elles construire des fossés dans cet environnement

Commençons par les fossés évidents : prendre un modèle de langage volumineux et construire une petite proposition de valeur par-dessus (par exemple, une meilleure interface utilisateur, s’intégrer à une seule source de données) ne crée pas un avantage durable à long terme. Ceux-ci sont assez faciles à imiter, et même si vous avez un avantage de premier arrivé, vous perdrez soit face à un acteur établi (qui a un accès plus facile aux données ou plus de flexibilité dans les interfaces), soit vous vous retrouverez dans une guerre des prix vers le bas.

Voici quelques approches non exhaustives pour construire un fossé autour des produits IA d’entreprise.

1. Spécialisation dans un domaine / une verticalité

Certains domaines / verticalités sont plus adaptés pour développer des applications IA que d’autres. Par exemple, construire sur une solution de CRM est vraiment difficile à défendre car les entreprises CRM comme Salesforce ont à la fois les connexions de données et le contrôle sur les interfaces pour le faire mieux. Vous pourriez proposer des innovations vraiment intelligentes (par exemple, créer un module LinkedIn pour rédiger automatiquement des e-mails de prospection en utilisant les données du CRM) mais les innovateurs / les premiers entrants sur le marché ne gagnent pas toujours le marché.

Le secteur juridique est un exemple d’une verticale où les start-ups d’IA pourraient se distinguer. Les documents juridiques sont longs, nécessitent un nombre incroyable d’heures de travail pour les lire et c’est un processus frustrant pour toutes les parties impliquées. Résumer / analyser des contrats, répondre aux questions basées sur le contenu des contrats, résumer les arguments juridiques, extraire des preuves des documents sont des tâches chronophages qui pourraient être effectuées efficacement par des LLM. Casetext, Harvey.ai sont quelques start-ups qui ont des produits copilot destinés aux avocats, et ont construit des expériences sur mesure spécifiquement adaptées aux cas d’utilisation juridique.

Un autre domaine qui a grand besoin d’efficacité dans le domaine de la santé. Il existe plusieurs défis liés à l’utilisation de l’IA dans le domaine de la santé, notamment la protection des données / la confidentialité, la complexité des logiciels (ERP, outils de planification, etc.) avec lesquels travailler, et le manque de profondeur technique / agilité parmi les grandes entreprises qui construisent des produits pour la santé. Ce sont des opportunités claires pour les start-ups de lancer rapidement des produits et d’utiliser leur position de premier arrivé sur le marché comme un avantage concurrentiel.

2. Effets de données / de réseau

Les modèles d’apprentissage automatique (y compris les grands modèles de langage) fonctionnent mieux plus ils disposent de données pour s’entraîner. C’est l’une des principales raisons pour lesquelles, par exemple, la recherche Google est le moteur de recherche le plus performant au monde – non pas parce que Google a indexé toutes les pages du monde (d’autres moteurs de recherche le font également), mais parce que des milliards de personnes utilisent le produit et chaque interaction de l’utilisateur est un point de données qui alimente le modèle de pertinence de recherche.

Cependant, le défi avec les produits d’entreprise est que les clients d’entreprise interdiront explicitement aux fournisseurs de logiciels SaaS ou IA d’utiliser leurs données à des fins de formation (et à juste titre). Les entreprises détiennent des informations sensibles – des données sur les clients aux données sur la stratégie de l’entreprise – et elles ne souhaitent pas que ces données soient utilisées par OpenAI ou les grands modèles de langage de Google.

Par conséquent, il est difficile de construire un avantage concurrentiel autour de cela, mais cela peut être possible dans certains scénarios. Par exemple, le contenu généré par les outils d’IA à des fins publicitaires ou marketing est moins sensible, et il est plus probable que les entreprises autorisent l’utilisation de ces données pour améliorer les modèles (et par conséquent leur propre performance future). Une autre approche consiste à avoir une version non-entreprise de votre produit où les données d’utilisation sont automatiquement optées pour la formation – les particuliers et les utilisateurs de PME sont plus susceptibles d’accepter cette approche.

3. Utilisation de plusieurs sources de données

La partie la plus difficile de l’application de grands modèles de langage à un cas d’utilisation d’entreprise spécifique ne consiste pas à choisir un modèle et à le déployer, mais à construire les canalisations nécessaires pour acheminer l’ensemble de données pertinent de l’entreprise vers le modèle.

Prenons un exemple d’une grande entreprise comme Intuit qui vend des logiciels de comptabilité et de fiscalité aux PME. Vous avez des dizaines de milliers de clients PME, et lorsqu’un client vous contacte avec une question de support, vous souhaitez lui fournir une réponse personnalisée. Très probablement, les données sur les produits utilisés par ce client se trouvent dans une base de données interne, les données sur les dernières interactions du client avec les produits se trouvent dans une autre base de données, et son historique de questions de support passées vit dans un logiciel SaaS de helpdesk. Une approche pour les start-ups d’IA générative de construire un avantage concurrentiel est d’identifier des cas d’utilisation spécifiques nécessitant plusieurs sources de données qui ne sont pas détenues par un seul grand acteur SaaS et de construire les intégrations pour acheminer ces données.

Cela a très bien fonctionné dans d’autres contextes – par exemple, tout le marché des plateformes de données client est apparu du besoin d’extraire des données de plusieurs sources pour avoir une vue centralisée des clients.

4. Isolation des données

Les grandes entreprises ne veulent pas exposer leurs données sensibles à des modèles, en particulier des modèles appartenant à des entreprises concurrentes ou ayant trop de pouvoir sur le marché (c’est-à-dire des entreprises avec lesquelles les entreprises sont obligées de partager des données faute d’alternatives).

De l’article de YC W23, CodeComplete est un excellent exemple d’une entreprise qui est née de ce problème :

L’idée de CodeComplete est d’abord venue lorsque ses fondateurs ont essayé d’utiliser GitHub Copilot alors qu’ils étaient chez Meta et que leur demande a été rejetée en interne en raison de considérations de confidentialité des données. CodeComplete est maintenant un outil d’assistance à la codification basé sur l’IA qui est adapté aux propres bases de code des clients pour fournir des suggestions plus pertinentes, et les modèles sont déployés directement sur site ou dans le cloud des clients.

5. Construire un produit plus complet

Pour toutes les raisons mentionnées ci-dessus, je suis personnellement sceptique quant au fait qu’une majorité d’applications d’IA autonomes ont le potentiel d’être des entreprises avec un avantage concurrentiel à long terme, en particulier celles qui ciblent les clients d’entreprise. Être le premier sur le marché est certainement une stratégie viable et pourrait mener à une acquisition rapide, mais la seule véritable façon de construire un avantage concurrentiel solide est de construire un produit plus complet.

Une entreprise qui se concentre uniquement sur la rédaction de contenu d’IA pour le marketing sera toujours exposée au risque de concurrence par un outil de marketing plus important, comme un cloud marketing ou un outil de génération créative d’une plateforme comme Google/Meta. Une entreprise qui développe une couche d’IA sur un outil CRM ou de helpdesk est très susceptible d’être copiée par une entreprise de SaaS déjà établie.

La façon de résoudre cela est de construire un produit plus complet. Par exemple, si l’objectif est de permettre une meilleure création de contenu pour le marketing, un produit plus complet serait une plateforme qui résout les problèmes principaux des utilisateurs (par exemple, le temps nécessaire à la création de contenu, la nécessité de créer plusieurs formats de contenu), et qui comprend ensuite un ensemble puissant de fonctionnalités d’IA générative (par exemple, générer la meilleure image pour Instagram).

Conclusion

Je suis enthousiaste à propos de la quantité de productivité que l’IA générative peut débloquer. Bien que personnellement je n’aie pas encore connu de bon en avant dans ma productivité, je crois que cela se produira rapidement à court terme. Étant donné que les couches d’infrastructure et de plateforme sont de plus en plus banalisées, la valeur la plus importante tirée de la productivité alimentée par l’IA sera capturée par des produits au niveau de l’application. En particulier dans l’espace des produits d’entreprise, je pense qu’une grande partie de la valeur sera capturée par les entreprises SaaS établies, mais je suis optimiste quant à l’émergence de nouveaux produits plus complets avec un ensemble de fonctionnalités axé sur l’IA et, par conséquent, une position concurrentielle significative.

🚀 Si vous avez aimé cet article, envisagez de vous abonner à ma newsletter hebdomadaire Unpacked. Chaque semaine, je publie une analyse approfondie sur un sujet technique / une stratégie de produit actuel sous forme de lecture de 10 minutes. Cordialement, Viggy.

Unpacked | Viggy Balagopalakrishnan | Substack

Analyse approfondie d’un sujet technique / d’une stratégie de produit dans votre boîte de réception chaque semaine. Cliquez pour lire Unpacked, par Viggy…

thisisunpacked.substack.com

We will continue to update IPGirl; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI

OpenAI dévoile GPT-4 Turbo un bond personnalisable vers l'avenir de l'intelligence artificielle

Dans une industrie où l’innovation est à la fois rapide et révolutionnaire, OpenAI repousse une fois de plus le...

AI

La montée des chatbots des machines stupides aux collaborateurs créatifs

En 2023, nous avons vécu une année révolutionnaire au cours de laquelle nous avons acquis une maîtrise exceptionnelle...

Recherche en IA

Accélérer la découverte de médicaments avec des modèles génératifs de diffusion.

Des chercheurs du MIT ont construit DiffDock, un modèle qui pourrait un jour être en mesure de trouver de nouveaux mé...