Exploiter l’apprentissage automatique pour le développement d’une stratégie marketing efficace
Utiliser l'apprentissage automatique pour une stratégie marketing efficace
Conseils et astuces pour construire avec succès une stratégie marketing en utilisant l’apprentissage automatique

Les modèles d’attribution marketing sont largement utilisés aujourd’hui pour construire des stratégies marketing. Les stratégies reposent sur l’attribution de crédit à chaque point de contact tout au long du parcours des clients. Il existe de nombreux types de modèles, bien qu’ils puissent être classés en 2 groupes : les modèles d’attribution à un seul point de contact et les modèles d’attribution à plusieurs points de contact. En général, vous pouvez facilement interpréter et mettre en œuvre ces modèles. Ils peuvent même être utiles dans certains cas rares. Cependant, la plupart d’entre eux sont incapables de construire une stratégie marketing solide par eux-mêmes. Le problème réside dans le fait que tous ces modèles fonctionnent soit sur la base de règles qui peuvent ne pas être applicables à certaines données/industries, soit ils s’appuient sur une quantité limitée de données, ce qui conduit à une perte d’informations précieuses. Pour en savoir plus sur les types de modèles d’attribution marketing, consultez mon article précédent.
Aujourd’hui, je voudrais discuter de la manière dont nous avons utilisé l’apprentissage automatique pour développer une stratégie marketing, des données que nous avons utilisées et des résultats que nous avons obtenus. Dans cet article, nous aborderons les questions suivantes :
- Où est-il préférable d’obtenir les données ?
- Comment préparer les données pour l’entraînement du modèle ?
- Comment utiliser efficacement les prédictions du modèle et tirer des conclusions significatives ?
Je vais présenter tout cela en utilisant les données de l’un de nos clients, avec certaines parties modifiées. Ces modifications n’auront pas d’impact sur les résultats globaux. Appelons cette entreprise XYZ. La publication de ces données a été autorisée par le client.
Données
Il existe plusieurs façons d’obtenir des journaux de trafic à partir de sites web. Ces méthodes ne fournissent pas toujours les informations complètes dont vous pourriez avoir besoin pour l’analyse. Cependant, il est parfois possible d’intégrer une source dans une autre, et parfois vous pouvez accumuler et combiner manuellement des données provenant de plusieurs sources. Vous pouvez également écrire des scripts vous-même pour recueillir les informations nécessaires. Maintenant, parlons un peu des sources les plus demandées actuellement et des données que vous pouvez obtenir à partir d’elles :
- Optimisation du régulateur PID Une approche de descente de gradient
- Entrée vocale et langage naturel pour votre application mobile en utilisant LLMs
- Les embeddings de phrases de l’IA, démystifiés
Google Analytics
Google Analytics (GA4) est une plateforme puissante qui vous donne accès à différents outils d’analyse de site web, et vous permet de mesurer l’engagement et le trafic sur vos applications et sites web. Il utilise généralement l’attribution du dernier clic, néanmoins, vous pouvez créer votre propre modèle d’attribution ML en collectant les données GA4 suivantes :
- événements automatiques (tels que ad_click, ad_impression, app_exception, file_download, first_visit, page_view, etc.) ;
- mesures améliorées (scroll, click, video_start, video_progress, etc.) ;
- événements recommandés (add_to_cart, begin_checkout, add_payment_info, purchase, add_to_wishlist, etc.) ;
- événements personnalisés.
Google Analytics vous propose différents événements pour différentes industries.
Meta Pixel
Meta Pixel est un outil qui vous permet de suivre la promotion des annonces et l’activité des visiteurs sur votre site web. Il vous donne des informations sur la façon dont votre public interagit avec vos annonces Facebook et Instagram, ainsi que des données sur la façon dont ces utilisateurs se comportent sur votre site web après avoir cliqué sur une annonce. En général, vous obtiendrez les mêmes données que lorsque vous utilisez Google Analytics. Néanmoins, Meta Pixel est plus axé sur le reciblage, vous obtiendrez donc plus d’outils à cet effet par rapport à Google Analytics.
Yandex Metrika
Yandex Metrika dispose des mêmes fonctionnalités que les services mentionnés ci-dessus. Cependant, il a ses avantages et ses inconvénients. En ce qui concerne les inconvénients, Yandex Metrika a une limite de requêtes traitées à partir d’un compte (5 000 requêtes / jour). En même temps, Google Analytics a une limite de 200 000 requêtes / jour. Et l’avantage est que Yandex Metrika dispose de Webvisor qui vous permet d’obtenir tous les mouvements de souris.
Il n’existe pas tous les services disponibles que vous pouvez utiliser pour obtenir des données utilisateur. Bien que de nombreux types de données soient représentés dans chaque source de données, lorsque vous choisissez une source de données, vous pouvez prêter attention à des facteurs tels que la facilité de configuration des rapports et l’intégration avec d’autres produits. Nous avons choisi Google Analytics (GA4) car il fournit des données complètes et des outils pratiques. De plus, les données s’intègrent facilement à BigQuery, et nous utilisons l’infrastructure Google Cloud. Voici à quoi ressemblent les données brutes :
Préparation des données
Revenons à la tâche à accomplir, nous visons à déterminer quelles campagnes publicitaires sont plus attractives pour l’investissement afin de réduire les dépenses en matière d’allocation budgétaire tout en maintenant ou en augmentant les niveaux de revenus. Par conséquent, la représentation des données GA4 est pratique pour nous car elle contient des informations sur chaque action/utilisateur, telle que :
- Clics sur un bouton
- Défilement
- Visualisation de photos
- Recherches, etc.
À son tour, toutes ces actions peuvent être transformées en micro-conversions, ce dont nous avons besoin. Nous utiliserons cet ensemble de micro-conversions pour prédire la probabilité qu’un utilisateur effectue un achat lors de chaque session.
Lors de la résolution d’une telle tâche, les micro-conversions suivantes peuvent être intéressantes :
- Visite de la page de vente
- Visualisation des produits populaires ou clés
- Recherche d’une taille spécifique
- Visualisation des photos des produits
- Visualisation de toutes les photos des produits
- Consultation des informations d’entretien des produits
- Ajout d’un produit au panier, etc.
En fait, vous pouvez inventer autant de micro-conversions que vous le souhaitez. Le choix des micro-conversions dépend grandement des caractéristiques spécifiques de votre magasin/entreprise.
En fin de compte, nous avons choisi les fonctionnalités et les micro-conversions suivantes pour notre modèle. Le nombre total de toutes nos fonctionnalités est de 97. Voici le sous-ensemble de nos fonctionnalités :
Vous pouvez voir de nombreuses fonctionnalités liées à UTM, elles signifient ce qui suit :
- utm_source est le nom de la plateforme ou de l’outil utilisé pour créer le VoAGI ;
- utm_VoAGI identifie le type ou le canal de trafic de haut niveau ;
- utm_campaign est le nom de la campagne marketing ;
- les autres fonctionnalités utm font référence au premier point de contact dans le parcours de l’utilisateur ou la session.
Revenons à la discussion sur les autres fonctionnalités. Certaines des colonnes sont disponibles dans les données brutes, donc vous n’avez rien à faire avec elles. Cependant, certaines colonnes ne sont pas prêtes à être utilisées et vous devez effectuer certaines manipulations au préalable. Voici un exemple de la façon dont nous avons obtenu une micro-conversion, telle que l’ajout d’un produit au panier :
Modèle
Je tiens à vous rappeler que l’utilisation du modèle vise à obtenir la probabilité qu’un utilisateur effectue un achat à chaque point de contact. Ensuite, nous convertirons cela en probabilité d’effectuer un achat au sein d’une session. Par conséquent, nous avons utilisé un modèle de classification où nous avons utilisé predict_proba
pour obtenir la probabilité d’achat à chaque interaction utilisateur. Après avoir essayé plusieurs modèles allant du linéaire au boosting, nous avons opté pour l’utilisation du CatBoostClassifier. Avant de déployer et de réentraîner le modèle quotidiennement, un réglage des hyperparamètres a été effectué. Nous n’entrerons pas dans les détails de la création du modèle car nous avons suivi une approche classique de réglage des hyperparamètres, d’entraînement ultérieur du modèle et de calcul des métriques pertinentes.
À présent, le modèle est en cours d’entraînement à l’aide de données sur un mois, car le fait de modifier cette durée à une période plus longue ou plus courte n’a pas montré d’amélioration significative. De plus, nous utilisons un seuil de 0.1 pour déterminer un achat. Nous avons spécifiquement utilisé cette valeur car elle est 10 fois plus élevée que la probabilité de base d’achat de notre client. Cela nous sert de déclencheur pour considérer ces événements et enquêter sur la réalisation ou non d’un achat, et si ce n’est pas le cas, pourquoi. En d’autres termes, toutes les actions pour lesquelles la probabilité du modèle > 0.1 sont classées comme un achat. En conséquence, nous avons obtenu les valeurs suivantes pour les métriques de rappel et de précision :
Rappel sur les TESTS : 0.947Précision sur les TESTS : 0.999
Sur la base des métriques obtenues, nous pouvons voir que nous manquons encore certains achats. Il est possible que les chemins menant à ces achats diffèrent du parcours utilisateur typique.
Nous disposons donc de toutes les fonctionnalités et des probabilités du modèle, et maintenant nous voulons construire un rapport et comprendre quelles campagnes publicitaires sont sous-estimées et lesquelles sont surestimées. Pour obtenir la campagne publicitaire, nous combinons les fonctionnalités utm_source, utm_VoAGI et utm_campaign. Ensuite, nous prendrons la probabilité maximale dans chaque session utilisateur, puis nous la multiplierons par la valeur moyenne de la commande dans la même période que l’ensemble de données de test. Ensuite, nous générons un rapport en calculant la somme pour chaque campagne publicitaire.
Cela nous donne le rapport suivant :
Maintenant, nous devons passer aux métriques marketing. Étant donné que nous voulons mesurer le succès des campagnes marketing, nous pouvons considérer les métriques suivantes, que les spécialistes du marketing utilisent souvent :
- ROAS (Retour sur les dépenses publicitaires) est une métrique marketing qui mesure l’efficacité d’une campagne de publicité numérique ;
- CRR (Coût du ratio des revenus) mesure le rapport entre les dépenses d’exploitation et les revenus générés par une entreprise.
Nous les calculerons en utilisant nos données et les comparerons aux valeurs ROAS et CRR que les spécialistes du marketing obtiennent généralement en utilisant l’attribution au dernier clic.
Étant donné que nous ne voyons que trois campagnes payantes pendant la période analysée, nous trouverons les métriques de ces campagnes dans GA4. Et ajoutons les valeurs ROAS et CRR basées sur l’attribution au dernier clic. Nous avons discuté pourquoi l’attribution au dernier clic n’est pas une approche exacte pour évaluer la contribution d’une campagne publicitaire dans l’article précédent.
Et en utilisant les formules mentionnées ci-dessus, nous calculerons le rapport final avec le ROAS et le CRR prévus :
Maintenant, nous avons toutes les données pour tirer des conclusions sur les campagnes publicitaires :
- Nous pouvons voir que la campagne “google/cpc/mg_ga_brand_all_categories_every_usa_0_rem_s_bas” est surestimée, car son ROAS prévu est 2 fois inférieur au ROAS basé sur l’attribution au dernier clic. Il est très probable que les utilisateurs fassent souvent des achats après avoir cliqué sur cette campagne publicitaire, mais ils sont déjà des clients potentiels.
- La campagne publicitaire “instagram / cpc / 010323_main” est sous-estimée, car son ROAS prévu est 4 fois plus élevé que le ROAS réel.
- Et la campagne “google / cpc / mg_ga_brand_all_categories_every_latvia_0_rem_s_bas” a un ROAS prévu similaire au ROAS réel.
Avec ces données, vous pouvez développer indépendamment des stratégies marketing pour la prochaine période. N’oubliez pas non plus que les stratégies marketing nécessitent des tests. Cependant, cela dépasse le cadre de notre article.
Dans cet article, nous avons discuté de la façon dont l’apprentissage automatique peut être utilisé pour élaborer une stratégie marketing. Nous avons abordé le sujet de la sélection des données, du prétraitement des données pour la modélisation, du processus de modélisation lui-même et de la dérivation d’informations à partir des résultats obtenus. Si vous travaillez également sur une tâche similaire, les approches que vous avez exploitées m’intéresseraient également.
Merci de votre lecture !
J’espère que les informations partagées aujourd’hui vous ont été utiles. Si vous souhaitez me contacter, n’hésitez pas à m’ajouter sur LinkedIn.
We will continue to update IPGirl; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Optimisez votre LLM sans surcharger votre GPU
- Estimez facilement les coûts de votre API OpenAI avec Tiktoken
- Un guide complet sur les termes d’interaction dans la prévision de séries temporelles
- 130 Astuces et Ressources d’Apprentissage Automatique Sélectionnées avec Soin sur 3 Ans (Plus un eBook Gratuit)
- L’intersection entre CDP et IA Comment l’intelligence artificielle révolutionne les plates-formes de données clients
- LLM (Large Language Models) pour une meilleure compréhension du produit par les développeurs
- Plus de conférenciers annoncés pour ODSC APAC 2023