Top 10 des tendances de la science des données en 2024
I write about fintech, data, and everything around it
Un blog sur les 10 principales tendances de la science des données pour 2024 avec des développements nouveaux et passionnants dans le monde en matière de science des données.
Le Big Data n’est plus un nouveau concept pour les entreprises. Il est devenu un rouage essentiel de la roue commerciale, en particulier pour les entreprises qui ne jurent que par la manière dont ces données peuvent être exploitées pour recueillir des informations. La science des données est le point où la science rencontre l’IA. Malgré la pandémie, le domaine n’a fait que croître. Devinez quoi? Nous avons également inclus les nouvelles tendances du rapport Gartner 2024 axé sur les tendances de la science des données.
La La science des données est l’un des domaines à la croissance la plus rapide au sein de l’industrie technologique. Cela change également la façon dont nous abordons les données et les analyses, tant sur le lieu de travail que dans notre vie de tous les jours. Que vous vous considériez comme un expert ou un novice complet, ces 10 tendances de la science des données en 2024 vous aideront à développer votre entreprise à l’avenir.
Commençons.
5 tendances émergentes en science des données en 2024
- Auto-ML : les plates-formes d’apprentissage automatique (Auto-ML) gagnent en popularité et prennent en charge divers aspects du cycle de vie de la science des données. Ces plates-formes automatisent des tâches telles que la recherche de données, l’ingénierie des fonctionnalités, la réalisation d’expériences d’apprentissage automatique, l’évaluation et le choix des modèles les plus efficaces, ainsi que leur déploiement dans des environnements de production.
- IA générative – Avec les progrès continus des systèmes d’IA générative, l’importance de « l’ingénierie rapide » est croissante. Cette pratique consiste à tirer parti des invites en langage naturel pour produire les résultats souhaités à partir des modèles IA/ML. L’introduction récente par OpenAI de modèles tels que ChatGPT et DALLE-2 met en évidence le rôle crucial que jouent les invites bien conçues dans l’optimisation des performances de ces systèmes d’IA.
- MLops- MLOps, abréviation de Machine Learning Operations, englobe une gamme de pratiques et d’outils utilisés pour gérer les aspects opérationnels des cycles de vie des modèles de Machine Learning. Celles-ci incluent des tâches telles que le recyclage automatique, l’apprentissage dynamique, l’empaquetage et la conteneurisation, ainsi que le déploiement de modèles dans des environnements de production. À mesure que les pratiques MLOps continuent de s’améliorer en termes d’efficience et d’efficacité, elles soulageront les scientifiques des données des activités de déploiement banales, leur permettant ainsi de se concentrer davantage sur des tâches telles que le recyclage et l’étalonnage des modèles.
- LLM – Les couches de base telles que BERT et GPT-3, qui sont de puissants modèles de langage, devraient être largement adoptées dans divers modèles d’apprentissage automatique. Cela permet aux data scientists de tirer parti de l’apprentissage par transfert et d’affiner ces modèles pour répondre à leur problème spécifique, plutôt que d’entreprendre la tâche ardue de construire et de former de tels modèles à partir de zéro.
- Cloud – L’utilisation du cloud computing est sur le point de se développer davantage dans le domaine de la science des données en raison de ses avantages en termes de puissance de calcul, d’accessibilité et de rentabilité pratiquement illimitées. Les solutions cloud deviennent de plus en plus accessibles, éliminant le besoin de vastes équipes d’ingénierie d’infrastructure ou de maintenance dédiée de l’infrastructure. Les data scientists peuvent désormais configurer facilement leur environnement, en quelques clics seulement, et bénéficier de la flexibilité nécessaire pour augmenter ou réduire leurs ressources à leur guise.
Top 10 des tendances de la science des données en 2024 :
Chez Zuci Systems, nous recherchons et analysons constamment les derniers développements et innovations dans ce domaine. Nous sommes convaincus que la science des données et les bonnes analyses nécessitent de bonnes données. Découvrez les 10 principales tendances de la science des données en 2024.
1. Boom de la migration vers le cloud
68 % des DSIont classé “la migration vers le cloud public/l’expansion du cloud privé” comme le principal moteur de dépenses informatiques en 2020. Les entreprises commenceront bientôt à se préparer à la migration des applications en conteneurisant leurs applications sur site. Cela sera dû à des considérations de coût, à des pénuries de puces et au besoin d’évolutivité. Les entreprises migreront leurs systèmes de traitement des transactions en ligne, leurs entrepôts de données, leurs applications Web, leurs analyses et leur ETL vers le cloud.
Les entreprises qui ont déjà des déploiements hybrides ou multi-cloud se concentreront sur le portage de leur traitement et analyse de données. Ce faisant, ils pourront passer d’un fournisseur de services cloud à un autre sans se soucier des périodes de verrouillage ou avoir à tirer parti de solutions ponctuelles spécifiques.
2. Croissance de l’analyse prédictive
En analysant les données de plus de 100 millions d’abonnés, Netflix a pu influencer plus de 80 % du contenu regardé par ses utilisateurs< /span>, grâce à des informations précises sur les données.
L’analyse prédictive consiste à prédire les tendances et les prévisions futures à l’aide d’outils et de techniques statistiques tirant parti des données passées et existantes. Grâce à l’analyse prédictive, les organisations peuvent prendre des décisions commerciales éclairées qui les aideront à se développer. Ils peuvent réfléchir à la manière dont ils souhaitent élaborer des stratégies et revoir leurs objectifs, grâce aux informations basées sur les données générées à l’aide d’analyses prédictives. </span >
Le marché mondial de l’analyse prédictive devrait s’élever à 21,5 milliards USD d’ici 2025, en croissance à un TCAC de 24,5 %. La croissance incroyable qui est prévue ici est due à l’adoption de la transformation numérique dans un certain nombre d’organisations. En fait, Satya Nadella, PDG de Microsoft, aurait déclaré : “Nous avons vu deux ans de transformation numérique en deux mois.”
Consultez notre étude de cas sur la façon dont nous avons mis en œuvre Analyse prédictive pour optimiser le coût d’acquisition pour l’entreprise de Singapour.
3. AutoML
Le machine learning automatisé, ou AutoML, est l’une des dernières tendances qui stimulent la démocratisation de la science des données. Une grande partie du travail d’un scientifique des données est consacrée au nettoyage et à la préparation des données, et chacune de ces tâches est répétitive et prend du temps. AutoML garantit l’automatisation de ces tâches et implique la création de modèles, la création d’algorithmes et de réseaux de neurones.
AutoML est essentiellement le processus d’application de modèles ML à des problèmes réels en tirant parti de l’automatisation. Les frameworks AutoML aident les data scientists dans la visualisation des données, l’intelligibilité des modèles et le déploiement des modèles. La principale innovation est la recherche d’hyperparamètres, utilisée pour le prétraitement des composants, la sélection du type de modèle et l’optimisation de leurs hyperparamètres.
4. TinyML
TinyML est un type de ML qui réduit les réseaux d’apprentissage en profondeur afin qu’il puisse être adapté à n’importe quel matériel. Sa polyvalence, son facteur de forme minuscule et sa rentabilité en font l’une des tendances les plus intéressantes dans le domaine de la science des données, avec laquelle un certain nombre d’applications peuvent être créées. Il intègre l’IA sur de petits éléments matériels et résout le problème lié à l’IA intégrée, à savoir la puissance et l’espace.
L’apprentissage automatique sur appareil a vu des cas d’utilisation dans divers endroits. De l’automatisation des bâtiments au développement et aux tests de médicaments, il permet des cycles d’itération rapides, un retour d’information accru et vous offre la possibilité d’expérimenter davantage. La reconnaissance de formes, l’analyse audio et les interfaces homme-machine vocales sont les domaines dans lesquels TinyML est largement appliqué.
L’analyse audio aide aux soins aux enfants et aux personnes âgées, à la surveillance de l’équipement et à la sécurité. Outre l’audio, TinyML peut également être utilisé pour la reconnaissance de la vision, des mouvements et des gestes. Pour l’instant, il y a plus de 250 milliards d’appareils embarqués qui sont actifs dans le monde, selon McKinsey. TinyML peut combler le fossé entre le matériel de pointe et l’intelligence de l’appareil. Avec l’émergence de nouvelles interfaces homme-machine, TinyML doit intégrer l’IA et l’informatique de manière moins chère, évolutive et plus prévisible. Les expéditions d’appareils TinyML devraient atteindre 2,5 milliards en 2030, contre seulement 15 millions en 2020.
5. Les solutions cloud natives deviendront incontournables
Cloud-native est généralement utilisé pour décrire des environnements basés sur des conteneurs. Ils sont utilisés pour développer des applications qui sont construites avec des services emballés dans des conteneurs. Les conteneurs sont déployés en tant que microservices et gérés sur une infrastructure élastique via des processus DevOps agiles et des workflows de livraison continue. Une infrastructure cloud native comprend des logiciels et du matériel qui sont utilisés pour exécuter efficacement les applications. L’infrastructure comprendrait également des systèmes d’exploitation, des centres de données, des pipelines de déploiement et un ensemble d’applications pour les prendre en charge.
Grâce à une large adoption de la transformation numérique, la plupart des entreprises travaillent aujourd’hui dans un environnement basé sur le cloud. Construire une infrastructure sur site coûtera cher, c’est une raison de plus pour laquelle le cloud est l’option incontournable pour les entreprises de nos jours. Cela implique également l’adoption de solutions d’analyse cloud natives qui créent une analyse détaillée sur le cloud.
6. Interfaces grand public augmentées
Dans un avenir proche, il pourrait y avoir un agent IA sous la forme d’une interface pour vous aider dans vos achats. Vous achetez peut-être vos produits en VR et vous faites une idée du produit via l’audio ou via une interface consommateur augmentée. Les interfaces grand public améliorées peuvent prendre plusieurs formes, il peut s’agir de RA sur mobile ou d’une interface de communication telle qu’une interface cerveau-ordinateur (BCI). Ces technologies ont des implications concrètes sur la façon dont nous achetons. Même vos réunions Zoom pourraient être remplacées par de nouvelles interfaces grand public augmentées. Le métaverse créé par Facebook, Microsoft et d’autres sociétés fera partie de cette interface consommateur augmentée.
Les technologies qui donneront un coup de pouce aux interfaces grand public augmentées sont l’IoT, la VR, la RA, la BCI, les haut-parleurs IA, les agents IA, etc. Tout cela évoluera vers un nouveau paradigme où l’intelligence artificielle sera l’intermédiaire.
7. Meilleure réglementation des données
2 000 000 000 000 000 000 octets de données sont générés chaque jour dans tous les secteurs, selon G2. Cela fait 18 zéros. Cela attire-t-il votre attention sur l’importance de la réglementation des données ? Cela devrait sérieusement le faire.
L’optimisation du Big Data ne peut pas être une réflexion après coup. Avec des données régissant tous les aspects de l’IA, de l’analyse prédictive, etc., les organisations doivent gérer leurs données avec soin. La confidentialité des données n’est plus un mot à la mode. Un rapport Cisco Consumer Privacy Survey 2019 indique que 97 % des entreprises ont réalisé qu’elles voyaient des avantages tels que la compétitivité avantage et attrait pour les investisseurs lorsqu’ils investissent dans la confidentialité des données.
L’IA s’implantant profondément dans des secteurs tels que la santé, les données sensibles du DME et des patients ne peuvent pas être compromises. La confidentialité des données dès la conception contribuera à créer une approche plus sûre en matière de collecte et de traitement des données des utilisateurs, tandis que la machine apprendra à le faire par elle-même.
Ce que nous faisons, la façon dont nous évoluons et construisons dans le cloud doivent également être examinés du point de vue de la réglementation politique. La vitesse à laquelle la science des données et ses technologies se développent est extrêmement rapide. Il n’y a pratiquement aucune mesure visant à réglementer la confidentialité des données ou à garantir la sécurité et le caractère sacré des données des clients. Les systèmes d’IA pourraient entraîner une chute considérable s’il n’existe aucun organisme de réglementation pour assurer leur maintenance.
8. IA en tant que service (AIaaS)
Il fait référence aux entreprises qui proposent des solutions d’IA prêtes à l’emploi qui permettent aux clients de mettre en œuvre et de faire évoluer des techniques d’IA à faible coût. Récemment, OpenAI a annoncéqu’il permettrait GPT-3, son modèle de langage de transformation, disponible sous forme d’API au public. L’AIaaS est l’une des dernières tendances où des modèles de pointe sont fournis sous forme de services.
L’avenir de cette technologie sera caractérisé par une fonction bien définie et autonome. Par exemple, une entreprise manufacturière utilisera un service pour créer un chatbot pour les conversations internes et un autre service pour prédire les stocks. Grâce à l’augmentation du nombre de modèles d’IA experts dans le domaine, des algorithmes complexes fournissant des solutions spécifiques peuvent être créés à la demande.
L’un des plus grands défis en matière d’AIaaS est de répondre aux exigences de conformité. Si votre entreprise est en mesure de respecter ses obligations de conformité et de réglementation, alors l’AIaaS est un excellent moyen de créer des solutions d’IA rapidement et à grande échelle.
Le marché de l’AIaaS devrait atteindre 43,298 milliards de dollars d’ici 2026 , avec une croissance à un taux TCAC incroyable de 48,9 % au cours de la période 2021-2026. L’AIaaS semble extrêmement prometteuse pour 2024 et au-delà. Nous verrons probablement un certain nombre d’entreprises tirer parti de l’IA à l’aide de cette technologie.
9. Complexités des données d’entraînement
Malgré tous les discours sur les données comme étant le nouveau pétrole et sur leur importance pour les organisations, la plupart de ces données collectées restent inutilisées. Également appelées données sombres, elles sont principalement collectées, traitées et stockées uniquement à des fins de conformité. De plus, 80 à 90 % des données générées par les entreprises aujourd’hui ne sont pas structurées, elles deviennent entièrement plus il est difficile de les analyser.
Pour créer des modèles d’apprentissage automatique crédibles, vous avez besoin d’énormes quantités de données d’entraînement. Malheureusement, c’en est undes principales raisons qui agissent comme un inhibiteur pour les applications de l’apprentissage supervisé ou non supervisé. Il existe certains domaines dans lesquels un vaste référentiel de données n’est pas disponible, ce qui peut sérieusement entraver les activités de science des données.
L’apprentissage par transfert, le réseau contradictoire génératif (GAN) et l’apprentissage par renforcement résolvent ce problème en réduisant la quantité de données d’entraînement requises ou en générant suffisamment de données en utilisant les modèles qui peuvent être enseignés.
Pour qu’une machine apprenne ce que vous essayez de lui enseigner, au moins des centaines de milliers d’exemples sont nécessaires. L’apprentissage par transfert garantit qu’il réduit ce chiffre à quelques centaines. Les GAN sont parfaits pour créer des données pour lesquelles les apprenants par renforcement peuvent interagir dans un environnement hautement simulé. GAN est la technologie derrière le deep-fake qui crée des images et des vidéos réalistes
10. Les emplois humains resteront sûrs
Les gens pensaient que l’IA allait prendre le relais de leur travail. Rien ne pourrait être plus éloigné de la vérité : l’IA a joué un rôle clé en garantissant que les emplois humains sont beaucoup plus optimisés que jamais. Même si les outils fournis par l’IA permettent d’accomplir les choses plus rapidement et sont moins sujets aux erreurs, vos tâches ne seront pas interrompues de si tôt.
Les organisations qui exploitent l’intelligence artificielle pour l’analyse des données se trouvent dans une position où elles peuvent obtenir beaucoup de succès en prenant des décisions commerciales basées sur les données. La meilleure chose à propos de l’IA est qu’elle examine d’énormes quantités de données, trouve des modèles, les analyse et les convertit en informations pertinentes.
Bien que les gens soient remplacés dans quelques emplois, cela n’entraînera pas une pénurie d’emplois, et personne ne doit non plus paniquer. Le facteur humain sera toujours important et cela ne fait aucun doute. La science des données n’a pas encore atteint le stade où l’IA peut remplacer l’esprit humain. Les data scientists interpréteront les données à l’aide d’algorithmes d’IA et aideront les entreprises à faire évoluer leurs opérations plus rapidement et plus efficacement.
Tendances émergentes de la science des données – Au-delà de 2024
1) Big Data sur le cloud
La convergence des technologies Big Data et Cloud change la donne pour la science des données. Le stockage et le traitement de vastes volumes de données dans le cloud offrent évolutivité, flexibilité et rentabilité. Les solutions basées sur le cloud permettent aux data scientists d’effectuer des tâches analytiques complexes sans avoir besoin d’une infrastructure sur site étendue.
2) Utilisation de l’analyse augmentée
Les entreprises connaissent une réduction significative du temps de traitement des données, ce qui permet d’obtenir des informations plus précises et une meilleure prise de décision. Le pouvoir transformateur de l’IA, du ML et du NLP est évident dans la rationalisation de la préparation, du traitement, de l’analyse et de la visualisation des données. Ces technologies avancées permettent aux experts d’approfondir les données, générant ainsi des rapports complets et des prévisions précises.
L’analyse augmentée fusionne de manière transparente les données provenant de sources internes et externes, facilitant ainsi une compréhension globale des informations et améliorant les capacités basées sur les données de l’organisation.
3) Focus sur l’intelligence de pointe
Gartner a fait des prédictions importantes, prévoyant que l’Edge Computing deviendra un processus courant en 2024. L’Edge Computing, également connu sous le nom d’Edge Intelligence, implique l’analyse et l’agrégation de données à proximité immédiate du réseau. L’adoption de l’Edge Computing est devenue une priorité pour les industries qui souhaitent exploiter le potentiel de l’Internet des objets (IoT) et des services de transformation de données, en intégrant de manière transparente l’Edge Computing dans leurs systèmes d’entreprise.
Le résultat est remarquable, car il apporte une flexibilité, une évolutivité et une fiabilité accrues, augmentant ainsi les performances globales de l’entreprise. La latence est considérablement réduite, tandis que la vitesse de traitement augmente, ce qui se traduit par une productivité améliorée.
4) Automatisation du nettoyage des données
Un nombre croissant de chercheurs et d’entreprises recherchent activement des solutions pour automatiser les processus de nettoyage ou de nettoyage des données, dans le but d’accélérer l’analyse des données et de tirer des informations précises à partir de vastes ensembles de données. Le rôle central dans cet effort sera joué par l’intelligence artificielle et l’apprentissage automatique, propulsant l’automatisation du nettoyage des données vers de nouveaux sommets.
5) IA responsable
L’IA responsable constitue une force essentielle, transformant l’IA d’une menace perçue en un contributeur positif à la société et à son propre développement. Elle englobe de multiples dimensions, guidant les organisations à prendre des décisions éthiquement judicieuses lorsqu’elles adoptent l’IA, y compris des considérations de valeur commerciale et sociétale, de gestion des risques, de confiance, de transparence et de responsabilité.
La prévision de Gartner concernant la concentration de modèles d’IA pré-entraînés parmi 1 % de fournisseurs sélectionnés d’ici 2025 souligne l’importance sociétale d’une IA responsable.
6) IA centrée sur les données
L’IA centrée sur les données signifie un changement notable par rapport à un modèle conventionnel et à une approche centrée sur le code, en donnant la priorité à une stratégie axée sur les données pour construire des systèmes d’IA plus robustes. L’essor des solutions centrées sur les données, telles que les technologies de gestion des données spécifiques à l’IA, de données synthétiques et d’étiquetage des données, répond à de nombreux défis liés aux données, englobant l’accessibilité, le volume, la confidentialité, la sécurité, la complexité et la portée.
Selon les projections de Gartner, d’ici 2024, 60 % des données destinées aux applications d’IA seront synthétiques, simulant la réalité, envisageant des scénarios futurs et atténuant les risques liés à l’IA. Cette croissance substantielle constitue une progression notable par rapport au seulement 1 % de données synthétiques utilisées en 2021, renforçant encore l’importance des approches centrées sur les données dans le paysage de l’IA.
7) Augmentation de l’utilisation du traitement du langage naturel
L’essor du traitement du langage naturel (NLP) transforme la façon dont les humains interagissent avec les machines. La PNL permet les chatbots, les assistants vocaux et l’analyse des sentiments, ouvrant de nouvelles voies en matière d’informations basées sur les données et d’engagement client.
8) IA générative pour les données Deepfake et synthétiques
Bien que l’IA générative recèle un immense potentiel pour créer du contenu réaliste et des données synthétiques, elle soulève également des inquiétudes concernant la désinformation et la confidentialité des données. Trouver un équilibre entre l’innovation et l’utilisation responsable de l’IA générative est primordial dans la communauté de la science des données.
Tendances de la science des données – Cas d’utilisation – Au-delà de 2024
-
Prédire le comportement des clients dans le commerce de détail
Des analyses avancées et des algorithmes d’apprentissage automatique permettent aux détaillants de traiter et de déchiffrer de vastes ensembles de données, prédisant ainsi le comportement futur des clients avec une précision étonnante. En identifiant les tendances et les modèles, les détaillants peuvent segmenter leur clientèle, personnaliser leurs stratégies marketing et proposer des promotions ciblées, améliorant ainsi considérablement l’engagement et la fidélité des clients.
Les moteurs de recommandation basés sur l’IA anticipent les préférences des clients, suggérant des produits et services pertinents, conduisant à des taux de conversion et à une satisfaction client plus élevés. L’analyse des sentiments grâce au traitement du langage naturel permet d’évaluer les commentaires et les sentiments des clients.t, permettant aux détaillants de répondre rapidement aux préoccupations et d’améliorer le sentiment de marque. De plus, la modélisation prédictive facilite la gestion des stocks, en optimisant les niveaux de stock et en réduisant les ruptures de stock, garantissant ainsi une expérience d’achat transparente pour les clients.
-
Détection de fraude dans le secteur financier
En appliquant des algorithmes d’apprentissage automatique et des techniques de détection d’anomalies, ces institutions peuvent rapidement identifier les modèles suspects et signaler les activités frauduleuses potentielles. À mesure que les fraudeurs deviennent plus sophistiqués, les techniques de science des données évoluent également, permettant aux professionnels de la finance de garder une longueur d’avance dans la lutte continue contre les menaces frauduleuses.
Grâce à une analyse efficace des données historiques et à l’identification de modèles récurrents, les modèles prédictifs peuvent alerter les institutions financières des menaces potentielles avant qu’elles ne se matérialisent. De plus, les tendances avancées de la science des données facilitent l’intégration de données provenant de sources multiples, telles que les médias sociaux et les bases de données externes, offrant ainsi une vue complète du comportement des clients et améliorant les capacités de détection des fraudes.
-
Prédire les pannes d’équipement dans le secteur de la fabrication
En exploitant des algorithmes d’apprentissage automatique et des analyses avancées, les fabricants peuvent analyser les données des capteurs en temps réel, les enregistrements de performances historiques et les facteurs environnementaux pour prédire avec précision les pannes potentielles des équipements. Cette approche proactive permet aux fabricants de planifier les activités de maintenance de manière stratégique, maximisant ainsi la durée de vie des équipements et minimisant les perturbations opérationnelles.
En surveillant en permanence les performances des équipements et en alimentant les données en modèles prédictifs, les fabricants obtiennent des informations précieuses sur les modèles de défaillance et les facteurs sous-jacents. La maintenance prédictive réduit non seulement les temps d’arrêt, mais optimise également les stocks de pièces de rechange et prolonge la durée de vie des équipements, améliorant ainsi considérablement les résultats des opérations de fabrication.
-
Prédire les résultats des patients dans le domaine des soins de santé
Grâce à des algorithmes d’apprentissage automatique, des modèles prédictifs sont formés pour identifier les modèles et les facteurs de risque associés à divers résultats pour les patients, permettant ainsi aux prestataires de soins de santé de proposer des interventions personnalisées pour de meilleurs résultats en matière de santé. En exploitant de vastes volumes de données sur les patients et de dossiers cliniques, les modèles de science des données peuvent identifier les corrélations cachées et les facteurs de risque qui influencent les résultats pour les patients. De l’identification des patients à haut risque à la recommandation d’approches thérapeutiques optimales, l’analyse prédictive permet aux prestataires de soins de santé de prendre des décisions éclairées, d’améliorer la sécurité des patients et d’optimiser l’allocation des ressources.
Conclusion :
La science des données inclut des applications pratiques et théoriques d’idées et exploite des technologies telles que le Big Data, l’analyse prédictive et l’intelligence artificielle. Dans cet article, nous avons discuté des 10 principales tendances de la science des données en 2024 et au-delà. Le marché du Big Data et de l’analyse de données devrait atteindre plus de 421 milliards de dollars d’ici 2027. Le domaine de la science des données connaît une croissance extrêmement rapide et les organisations l’adoptent sans réserve afin de ne pas se laisser distancer.
Si vous cherchez de l’aide avec de gros solutions de données, contactez-nous. L’équipe de Zuci sera ravie de vous montrer comment nous pouvons convertir vos données en intelligence d’affaires.