IA chantier transformation digitale

Intelligence artificielle : prochain chantier de votre transformation digitale

D’ici 2020, rien ne sera plus comme avant : il y aura 200 milliards d’objets connectés (Le Big Data) et 5% des transactions économiques seront gérées par des agents autonomes (Gartner). Ces évolutions générant toujours plus de données, l’Intelligence Artificielle (IA) voit son développement s’accélérer tout naturellement afin de nous prêter main forte.

Chatbot Microsoft Azure Bot Framework

Architecture ChatBot avec Microsoft Azure et Bot Framework

Depuis quelques temps, les chatbots ou agents conversationnels ont investi les plateformes digitales et en ont révolutionné l’utilisation. Que ce soit pour commander une pizza en tant que particulier via son mobile ou pour réserver une salle en tant que salarié d’une entreprise, les formes traditionnelles de communication sont de plus en plus abandonnées pour laisser place à un recours accru aux chatbots.

Meet Up Expertime

Meet’Up Expertime

Rendez-vous le 13 septembre 2018 au LAB RH pour le Meet’Up Expertime !

 

Retrouvez Expertime à l’occasion de son Meet’up autour de l’Intelligence Artificielle, l’occasion de venir échanger autour des problématiques actuelles de l’IA, de rencontrer nos intervenants experts et réseauter avec des passionnés.

 

Chaque jour en tant qu’individu, pour nos besoins personnels ou dans le cadre de notre activité professionnelle nous utilisons des solutions de plus en plus intégrées à nos contextes. Ces nouveaux outils sont plus « intelligents », plus adaptatifs, capables parfois d’ubiquité, ils embarquent des mécanismes prédictifs, ils utilisent des possibilités collaborative décuplées grâce à l’interconnexion constante et aux architectures de services cloud ultra-disponibles.

Pour l’entreprise, les possibilités sont énormes, après avoir créé et stocké des quantités toujours plus importantes d’information, elles ont désormais la possibilité d’exploiter et « cultiver » ces données pour améliorer leurs activités.

L’avènement de pratiques et mises en œuvre rendus possibles grâce à la convergence d’un ensemble de facteurs concordants : des technologies désormais matures, ultra-performantes et ultra-disponibles sur le cloud ; La taille du capital d’information numérique désormais accumulé dans l’entreprise ; L’évolution culturelle de nos sociétés civiles qui amène les entreprises à repenser leur modèle via un prisme digital, sous peine, à défaut, d’être littéralement uberisé.

 

Expertime est depuis 15 ans un partenaire reconnu des grandes entreprises et organisations dans leurs actions de transformation digitale. Les solutions collaboratives, le e-commerce, les solutions mobiles, la Business Intelligence, la transformation des S.I grâce au cloud et plus récemment l’intégration applicative de l’IA et la data-science, nous avons accompagné et réalisé de nombreux projets. Ce retour d’expérience, tel un coup d’œil dans le rétroviseur permet de mieux comprendre l’ampleur du virage de l’intelligence artificielle.

 

Dans ce contexte, Expertime, en tant qu’acteur de l’économie numérique et expert de l’intégration et du conseil sur ces solutions propose cette semaine un meetup « L’intelligence artificielle un accélérateur pour la transformation digitale des entreprises ».

Une soirée pour exposer différents concepts et réalités :

  • L’IA et la culture Data, du point de vue décideur de notre partenaire Microsoft
  • Des cas concrets d’intégrations possibles sur des solutions Digital Workplace, assistant virtuel et marketing intelligence avec nos experts et le témoignage de clients sur leurs retours d’expériences

 

NOS INTERVENANTS

  Amaël Le Lan – Deputy Director Expertime IDF – Head of Innovation .
En tant qu’expert de l’intégration applicative & exploitation de la donnée et de la Business Intelligence auprès des grandes entreprises, Amäel nous présentera les problématiques de l’Intelligence Artificielle.

Lionel Billon – Data & AI Solutions Sales Director chez Microsoft.
Lionel nous présentera son point de vue de décideur sur l’Intelligence Artificielle et la culture Data

Alibek Jakupov – Data Science Consultant.
Alibek illustrera les concepts abordés de manière concrète par des solutions.

 

 

POURQUOI VENIR ?

 

L’occasion de partager et comprendre ensemble, suivant nos expériences et activités respectives, comment appréhender dès maintenant ces nouvelles opportunités IA au bénéfice de la transformation et de la performance des organisations.

Rejoignez-nous
le Jeudi 13 septembre
Au LAB RH  58 bis rue de la Chaussée d’Antin, 75009 Paris

Inscrivez-vous ici !

 

EXPERTIME

 

Expertime accompagne les entreprises dans leur transformation digitale : conseil sur les opportunités à saisir et mise en œuvre de solutions innovantes en commerce connecté et entreprise connectée. Nous intervenons dans tous les secteurs d’activités, principalement des grands Groupes du CAC 40 (secteur du luxe, industrie aéronautique, secteur public, pharmaceutique…).

Terraform

Terraform : déployer et gérer son infrastructure cloud de façon déclarative

Pourquoi Terraform ?

Avec le développement des services de cloud computing et le rapprochement des équipes de développement et d’infrastructure (le fameux concept « DevOps »), un besoin d’outillage au niveau du déploiement d’une infrastructure et de sa gestion se fait ressentir. Deux options possibles pour ces opérations : la possibilité de passer simplement par l’interface web des différents services de cloud, ou bien, dans un mode plus automatisé, la possibilité d’utiliser les scripts et API de déploiement.

Le problème de la première solution, au-delà des nombreuses opérations humaines successives, est le manque de traçabilité. A moins de faire une documentation complète et de la maintenir à jour à chaque modification de l’infrastructure, impossible de savoir de manière fiable qui a fait quoi sur l’infrastructure déployée. Les scripts de déploiement quant à eux, bien qu’ils puissent être versionnés dans un gestionnaire de code source (comme Git ou TFS), peuvent parfois s’avérer complexes à écrire et à maintenir, en raison notamment de la multitude de cas à gérer (déployer un service, le modifier, le supprimer) et des bugs que cela induit.

La solution, c’est Terraform : cet outil édité par HashiCorp sous licence libre vous permet de décrire entièrement votre infrastructure cloud de façon déclarative. On parle ici « d’infrastructure as code ». Du code ? Mais quelle différence avec mes scripts de déploiement ? Et bien la différence c’est que le code que vous allez produire pour décrire votre infrastructure ne sera pas le code utilisé pour la déployer, il n’en sera que le paramètre d’entrée. En effet, avec Terraform pas besoin de décrire comment vous allez déployer vos services, ici on décrit simplement l’état final que l’on attend : je veux une VM, avec un disque dur, une carte réseau, etc…

 

Fonctionnement

Une fois votre architecture décrite sous forme de fichiers plats grâce au langage HCL (HashiCorp Configuration Language) dont la syntaxe est proche du JSON, il ne vous reste plus qu’à la tester sur votre environnement cible avec la commande « Terraform plan ». Terraform va alors générer le code nécessaire au déploiement de l’infrastructure déclarée dans vos fichiers et vous faire un récapitulatif de ce qui va changer sur votre environnement. Vous n’avez alors plus qu’à vérifier les modifications, puis demander à Terraform de déployer avec la commande « Terraform apply ». Il s’occupera alors de vous instancier tous les services que vous avez décrits.

Besoin de modifier un service ? Si vous vous apercevez que votre serveur de base de données est sous-dimensionné et qu’il faut changer le niveau de facturation de celui-ci, une petite modification dans vos fichiers suivie d’un « Terraform apply » suffit. Le service sera modifié.

Supprimez un service de vos déclarations, il sera également supprimé dans le cloud.

Vos fichiers Terraform sont donc le miroir de votre infrastructure déployée. Ceci implique que toute modification faite sans passer par Terraform sera perdue la prochaine fois que vous voudrez appliquer une configuration Terraform, sauf si vous avez répercuté les changements dans vos fichiers Terraform.

Une autre utilisation est la possibilité de déployer autant d’infrastructures identiques que vous le souhaitez. Le déclaratif vous garantit en effet que peu importe le nombre de fois où vous déployez votre architecture, elles seront toutes identiques. Dans le cadre d’environnements de développement / qualification / préproduction / production, vous pouvez bien sur utiliser des fichiers de configurations propres à chaque environnement, vous n’avez pas forcément besoin de déployer trois frontaux sur un environnement de recette par exemple.

 

Cas pratique : déployer une base de données sur Microsoft Azure

Microsoft propose sur son offre de cloud public un découpage comme suit : un répertoire Azure contient une ou plusieurs souscriptions (une souscription = une facturation), qui contiennent des groupes de ressources (sortes de conteneurs métier), eux-mêmes contenant les services déployés. Le point d’entrée de Terraform est le groupe de ressources, c’est-à-dire qu’il n’est pas nécessaire de déclarer dans vos fichiers Terraform tous les groupes de ressources de votre souscription, mais uniquement celui sur lequel vous voulez travailler.

Il vous faudra au préalable installer la CLI Azure, permettant à Terraform d’interagir avec Azure grâce à Azure Resource Manager (AzureRM). Une fois la CLI installée, lancez une invite de commande PowerShell et tapez « az login » pour vous connecter à vos souscriptions Azure. Enfin, téléchargez Terraform depuis le site officiel et décompressez l’exécutable dans le dossier contenant vos fichiers Terraform. Tapez ensuite « .\terraform.exe init » pour télécharger le plugin Azure de Terraform.

Créez un fichier « test.tf » et collez-y le code suivant en changeant à minima les valeurs en gras :

provider « azurerm » { }

 

resource « azurerm_resource_group » « test » {

name = « terraform-test-group »

location = « West Europe »

}

 

resource « azurerm_sql_server » « test » {

name = « terraform-test-sql »

resource_group_name = « ${azurerm_resource_group.test.name} »

location = « West Europe »

version = « 12.0 »

administrator_login = « admin-login »

administrator_login_password = « MyP4$sW0rd »

}

 

resource « azurerm_sql_database » « test » {

name = « MyDatabase »

resource_group_name = « ${azurerm_resource_group.test.name} »

location = « West Europe »

server_name = « ${azurerm_sql_server.test.name} »

}

 

La première ligne indique à Terraform que nous allons déployer sur Microsoft Azure. Le premier bloc « resource » déclare un groupe de ressources Azure. Le second bloc « resource » est la définition d’un serveur SQL. Enfin, le dernier bloc représente notre de base de données.

Dans votre invité de commande PowerShell, tapez « .\terraform.exe plan ». L’outil va alors faire un récapitulatif de ce qu’il va créer, mettre à jour, ou supprimer sur votre souscription Azure.

 

Terraform : déployer et gérer son infrastructure cloud de façon déclarative

 

Si vous êtes d’accord avec le plan, faites un « .\terraform.exe apply ». Une fois les services créés, vous pouvez les modifier en éditant votre fichier « test.tf » et en relançant la commande « .\terraform.exe apply ». Pour supprimer toutes vos ressources, faites un « .\terraform.exe destroy ».

En deux minutes montre en main, vous avez déployé un serveur MSSQL avec une base de données. Il ne vous reste plus qu’à imaginer le gain de temps sur une architecture plus complexe.

 

Alexis DELUZE

Architecte technique

Expertime Open Hong Kong

Expertime Groupe s’implante à Hong Kong !

Expertime Groupe est officiellement arrivé à Hong Kong

 

Nous sommes heureux de vous annoncer l’arrivée officielle d’Expertime Open, filiale d’Expertime Groupe, sur le marché Hongkongais ! Le 7 juin dernier, les bureaux d’Expertime Open se sont installés au sein de la Chambre de Commerce et de l’Industrie de Hong Kong, accompagnés de Powell Software notre éditeur de solutions de Digital Workplace.

 

En constante expansion et développement, Hong Kong devient petit à petit une des destinations les plus prisées en terme de Business Development. Nombreux sont les français choisissant d’ouvrir une extension à leur activité sur le continent asiatique. Nos collaborateurs ont donc déménagé de l’autre côté du globe, dans le but d’agrandir le réseau de partenaires et de clients d’Expertime. Cette ouverture marque une étape importante dans le développement de notre structure et représente une grande opportunité, poussée depuis quelques mois par nos clients faisant appel à nos services pour des projets à destination de l’Asie, que nous avons su saisir.

 

A propos d’Expertime Open

 

Expertime Open accompagne les entreprises clientes et partenaires autour de la conception et tout au long de la production de solutions Web (sites internet institutionnels, intranets, extranets), E-commerce et Chatbot. En créant des expériences digitales performantes, Expertime Open place le savoir-faire technologique et l’innovation au cœur de chacun des projets, de l’idée à la réalisation en passant par l’étude, l’idéation, la conception, l’UX, le design, le développement et la maintenance.

 

Contactez-nous dès maintenant pour plus de renseignements !

Power Bi Custom Visuals

État de l’art : développement de custom visuals

Outils de développement existants

Il en existe actuellement deux majeurs et un mineur permettant de développer des Custom Visuals sous Power BI, les deux majeurs nécessitent Node.js :

 

– Avec le langage Typescript, en utilisant des bibliothèques comme SVG & d3.js. Cette méthode est la plus courante et on trouve des guides expliquant les démarches datant de 2016 [1]. C’est aussi par ailleurs ce qui a été utilisé pour nos visuels du scorecard & du mailtracker développés en mai-juin 2017. On peut trouver nos guides dans le répertoire K:\PowerBi\Custom Visual.

 

– Avec le langage R, en utilisant des bibliothèques comme Plotly & ggplot2. Cette démarche est la plus récente (mi-juin 2017) [2] et on peut trouver des guides de la même année [3]. Une documentation officielle pour la bibliothèque Plotly sous R est disponible [4].

 

– Enfin, la solution émergente (fin 2017) [5] est un tronc de visuels à importer et à modifier directement sur Power BI. Un guide provenant de la personne qui a créé ce tronc de visuels a été publié pour aider à comprendre comment fonctionne le tronc [6].

 

 

Analyse des méthodes

 

Avec Typescript et SVG/d3.js

Cette méthode est la plus ancienne et la plus documentée dans nos propres ressources. C’est donc un terrain déjà exploré. On peut travailler sur ce langage avec un environnement comme Visual Studio.

Les avantages

Comme nous avons pu le voir dans nos guides SVG/d3.js en Typescript, l’avantage est de pouvoir utiliser ces bibliothèques graphiques pour une grande liberté de création. Il est donc possible de créer des lignes, des cercles, de couleur et de taille personnalisées à n’importe quel endroit dans la fenêtre de notre visuel. De plus, il est possible de retranscrire un script en JavaScript vers du Typescript plutôt facilement.

Les inconvénients

Cette méthode de développement nécessite l’installation de Node.js ainsi que la bibliothèque d3.js en amont, ainsi que l’installation de certificats pour pouvoir faire fonctionner un serveur et avoir le visuel en direct. Ce visuel en direct n’est utilisable que sur un navigateur, pas sur Power BI Desktop. Pour ce qui est des visuels exportés, il est évidemment tout à fait possible de les importer sur le navigateur, mais aussi sur la version Desktop de Power BI.

Le code à fournir pour obtenir un visuel fonctionnel nécessite au moins une centaine de lignes car quasiment tout se fait manuellement. Ceci s’explique par le besoin de créer le « corps » du visuel, mais aussi le « mapping » des variables. Globalement, cette méthode requiert un apport lourd en lignes de code.

 

Avec R et Plotly/ggplot2

Cette méthode est le concurrent de la méthode Typescript SVG/d3.js. On développe en R – Plotly en installant R [7] puis l’environnement Rstudio [8].

Les avantages

Le principal avantage de Plotly est l’interface utilisateur déjà intégrée dans le visuel. Elle permet donc de choisir quelles courbes afficher, de zoomer, d’autoscaler, ou encore de sélectionner une partie de l’axe horizontal en quelques clics [9].

Il est aussi possible de changer la visibilité des graphes en public/privé/secret selon le besoin.

La documentation officielle et les troncs de visuels qui sont mis à disposition sont très riches, la prise en main ne devrait donc pas être longue [4].

Les inconvénients

On retrouve ici les mêmes nécessités d’installation en amont pour Node.js & le serveur du visuel en direct.

 

Avec le tronc-visuel d3.js sur Power BI

C’est la méthode la plus récente et qui consiste à développer directement sur le visuel :

Les avantages

Cette méthode ne nécessite pas d’installation en amont, ni de serveur. On retrouve ici les mêmes avantages de liberté de création que la méthode classique.

Les inconvénients

Le principal inconvénient est que le visuel est limité à 30 000 points de données.

On retrouve les mêmes inconvénients que le développement classique en Typescript SVG/d3.js : l’apport en lignes de code est lourd. De plus, cette méthode présente quelques spécificités par rapport à la méthode classique dans le sens où certaines lignes de code qui fonctionnaient auparavant ne fonctionnent plus et nécessitent des modifications comme expliqué ici [6].

 

 

Pour résumer

 

Méthode SVG/d3.js R Plotly Tronc-visuel d3.js
Date 2016 juin-17 nov-17
Environnement de programmation Visual Studio Rstudio Directement sur le visuel
Langage Typescript R javascript Typescript
Avantages Liberté de création d’objets graphiques Interface sur visuel intégrée sur chaque graphe Pas d’installation, plug & dev
Inconvénients Lourd en code N/A (mis à part la prise en main pour ma part) Lourd en code et 30 000 points-données max

 

 

Références

[1]         « Build Your Custom Visuals in Power BI (Step-by-Step) – Tsmatz ». [En ligne]. Disponible sur: https://tsmatz.wordpress.com/2016/09/27/power-bi-custom-visuals-programming/. [Consulté le: 04-avr-2018].

[2]         « Interactive R custom visuals support is here! | Blog Microsoft Power BI | Microsoft Power BI ». [En ligne]. Disponible sur: https://powerbi.microsoft.com/fr-fr/blog/interactive-r-custom-visuals-support-is-here/. [Consulté le: 03-avr-2018].

[3]         « Interactive Charts using R and Power BI: Create Custom Visual Part 1 | RADACAD ». [En ligne]. Disponible sur: http://radacad.com/interactive-map-using-r-and-power-bi-create-custom-visual-part-1. [Consulté le: 04-avr-2018].

[4]         « plotly ». [En ligne]. Disponible sur: https://plot.ly/r/. [Consulté le: 03-avr-2018].

[5]         « D3.js Visual – create your own custom visual », D3.js Visual – create your own custom visual. [En ligne]. Disponible sur: https://appsource.microsoft.com/en-us/product/power-bi-visuals/WA104381354. [Consulté le: 04-avr-2018].

[6]         « Power BI D3.js Custom Visual », Azure BI. [En ligne]. Disponible sur: https://azurebi.jppp.org/power-bi-d3js-visual/. [Consulté le: 04-avr-2018].

[7]         « The Comprehensive R Archive Network ». [En ligne]. Disponible sur: https://cran.rstudio.com/. [Consulté le: 04-avr-2018].

[8]         « Download RStudio – RStudio ». [En ligne]. Disponible sur: https://www.rstudio.com/products/rstudio/download/#download. [Consulté le: 04-avr-2018].

[9]         « Getting Started with Plotly for R ». [En ligne]. Disponible sur: https://plot.ly/r/getting-started/. [Consulté le: 04-avr-2018].

Solutions collaboratives ROI

Solutions collaboratives : bonnes pratiques de déploiement et appréhension du ROI

 

Dans un monde où l’information connait une croissance exponentielle, où les données circulent à forte vélocité, certaines entreprises peinent à saisir les enjeux de cette nouvelle dynamique qui demandent une flexibilité sans précédent. De ce fait, les collaborateurs au sein de l’entreprise, sont privés d’outils en adéquation avec les contraintes d’agilité du monde actuel.

 

Là où dans la vie privée la recherche d’information est quasi instantanée, un collaborateur passe en moyenne 20% de son temps à rechercher de l’information interne nécessaire à la réalisation de ses fonctions (Etude McKinsey, 2016).

 

Pour renverser la tendance, les entreprises s’orientent vers des solutions collaboratives et mettent en place des projets de déploiement associés. L’objectif premier de ces projets est d’offrir une expérience de travail agile, moderne et intuitive à des collaborateurs qui ont goûté à la révolution de l’écosystème des applications mobiles.

 

Dans ce type de projet, il est impératif d’avoir à disposition les bonnes pratiques de déploiement de solutions collaboratives afin de mieux appréhender la problématique du ROI. En effet bien appréhender le ROI est crucial pour de tels projets, qui représentent un coût non négligeable avec une multitude de chantiers à la clé : cadrage technique, déploiement, migration, formation, décommissionnement, …

 

Bien que certains gains soient immédiatement perceptibles, comme la réduction des coûts en termes d’infrastructures dans le cas, par exemple, d’un décommissionnement d’infrastructures « on premise » pour une orientation vers un environnement « full cloud » ou « hybride », il existe aussi des gains plus difficilement quantifiables :

  • Moins de perte de temps à rechercher une information
  • Coédition sur les documents afin de réduire les allers/retours par mails
  • Réunions optimisées avec des outils de vidéo-conférence
  • Un meilleur engagement de vos collaborateurs
  • Impact sur la productivité et le bien-être au travail

 

Sur de tels projets, avec de forts enjeux humains, Il y existe des approches autres que le simple raisonnement ROI comme indicateur exclusivement financier.

 

N’oublions pas la motivation première de ces projets abordée en introduction : offrir une expérience de travail agile, moderne et intuitive à des collaborateurs qui ont goûté à la révolution digitale.

La motivation première de ces projets n’est pas les coûts (du moins pas uniquement), mais répondre à des difficultés, frustrations induites par une entreprise qui n’offre pas un environnement de travail moderne et en phase avec l’évolution des technologies. L’offre d’un environnement de travail moderne peut avoir un impact positif sur la perception de votre marque employeur auprès de vos collaborateurs, pouvant optimiser l’attractivité et réduire au passage votre turn over.

 

En général, ces projets s’inscrivent dans une stratégie de transformation des méthodes de travail et de l’environnement digital des collaborateurs.

 

Dans ce contexte, il est primordial de se concentrer sur l’adoption de cette plateforme par les collaborateurs afin de maximiser l’impact positif au sein de l’entreprise.

 

Un certain nombre de bonnes pratiques sont à suivre afin de maximiser l’adoption des nouveaux services digitaux :

  • Rattacher les nouveaux services collaboratifs à des cas d’usages pragmatiques dans lesquels les collaborateurs s’identifieront. Le but est d’apporter des solutions aux problèmes de vos collaborateurs. Idée d’indicateur : réaliser un comparatif avant/après du taux de satisfaction de vos collaborateurs par rapport à des scenarii d’usages bien identifiés, …
  • Coupler une stratégie d’accompagnement au changement à votre stratégie de déploiement.Ces deux points ne peuvent être décorrélés. Les collaborateurs ne doivent pas subir le déploiement. Ce dernier doit aller au rythme des utilisateurs en fonction de leur appétence et de leur maturité digitale. C’est là que l’accompagnement entre en jeu avec un plan de communication, formation, support et accompagnement humain. Idées d’indicateurs : Réaliser un comparatif avant/après du taux de satisfaction de vos collaborateurs par rapport à des scénario d’usages bien identifiés, Mesurer le taux d’adoption des différents services de votre plateforme collaborative par le biais de rapports trimestriels, Mesurer le taux de satisfaction des collaborateurs autour de la qualité du déploiement, …
  • S’appuyer sur des solutions tierces comme Powell 365 pour maximiser l’adoption. Par exemple, dans le cas d’Office 365, l’écosystème peut effrayer les utilisateurs avec sa pléthore de services, dont certains offrent plus ou moins lesmêmes fonctionnalités. Les utilisateurs peuvent alors se sentir perdus au milieu de tous ces services. La mise en place de portail collaboratif permet aux collaborateurs de bénéficier des nouveautés et des fonctionnalités d’Office 365 au sein d’un emplacement unique sans avoir à basculer d’un service à l’autre. Idées d’indicateur : Mesurer le taux d’adoption des nouveaux services par le biais de sondages trimestriels, …
  • Sensibiliser le management.La mise en place de solutions collaboratives implique nécessairement une évolution des méthodes de travail au sein de l’entreprise. Les managers ont un rôle essentiel à jouer et doivent être des vecteurs de cette transformation (Digital Workplace : accélérateur de transition vers les nouveaux usages, Adel Badri). Des sessions de sensibilisation aux nouveaux usages sont alors organisées mettant en scène des scénarios de prise en main spécialement conçus pour que le manager puisse se projeter dans une utilisation au quotidien de ces nouveaux outils, pour lui et pour ses équipes.
  • Mettre en avant les solutions de vidéo-conférence afin de limiter les déplacements. Idées d’indicateur : Comparer une année de frais comptables liées aux déplacements professionnels à une année post déploiement, …
  • Moderniser l’image de l’entreprise en profitant des nouveaux outils pour assoir une marque employeur moderne. Idées d’indicateurs : Mesurer la satisfaction des collaborateurs par rapport lieu de travail, Mesurer l’évolution du turnover avant/après le déploiement, Mesurer l’évolution de la cooptation avant/après le déploiement, …

 

En synthèse, il est impératif de bien définir ses objectifs stratégiques en termes de digitalisation ainsi que l’impact attendu pour mettre en place la bonne stratégie de déploiement et ainsi garantir le succès du projet en termes d’adoption utilisateurs et de ROI.

 

Ecrit par Kévin Anandout

Blockchain supply chain

La Blockchain en tant que Supply Chain

Contexte 

Dans le monde connecté et intégré d’aujourd’hui, l’activité économique se déroule dans des réseaux d’entreprises qui couvrent des frontières géographiques et juridictionnelles. Les réseaux d’entreprises se rencontrent généralement sur des marchés où producteurs, consommateurs, fournisseurs, partenaires, marchés et autres parties prenantes possèdent, contrôlent et exercent leurs droits, privilèges et engagements sur des objets de valeur appelés actifs.

Les actifs peuvent être tangibles et physiques, comme les voitures et les maisons, ou intangibles et virtuels, comme les certificats et les brevets. La propriété et le transfert d’actifs créent de la valeur dans un réseau d’entreprises et sont connus sous le nom de transactions.

Les transactions impliquent généralement divers participants : des acheteurs, des vendeurs et des intermédiaires (ex : les banques) dont les accords ou les contrats sont enregistrés dans des entreprises commerciales. Une entreprise utilise généralement plusieurs registres pour suivre la propriété des actifs et les transferts d’actifs entre les participants de ses différentes branches d’activité. Les ledgers sont les systèmes d’enregistrement (systems of record ou SORs) pour les activités économiques et les intérêts d’une entreprise.

On peut distinguer trois topologies de réseaux pour le ledger d’entreprise :

  1. Un réseau centralisé qui gère le flux d’informations et d’opérations à partir d’un point central unique.
  2. Un réseau de ledger distribué qui répartit la charge de travail de calcul entre plusieurs nœuds dans un réseau.
  3. Un réseau de ledger décentralisé qui permet aux nœuds de prendre des décisions de traitement et de calcul indépendamment de ce que d’autres nœuds homologues peuvent décider.

 

Figure 1. Types de réseaux : centralisé, distribué et décentralisé.

 

Le cas de la Supply Chain 

Dans le cas de la Supply Chain, nous considérerons le troisième modèle, c’est-à-dire le système décentralisé. Cette blockchain fonctionne comme un consortium.

Une blockchain de consortium est partiellement publique et partiellement privée : cela signifie qu’un groupe présélectionné de nœuds contrôle le processus de consensus (habituellement), mais d’autres nœuds peuvent être autorisés à participer à la création de nouvelles transactions et / ou à leur révision.

Dans notre cas, cela signifie considérer la blockchain comme une chaîne d’approvisionnement :  changer d’état étant très sensible, pour des raisons de sécurité, il vaut mieux que seuls les nœuds présélectionnés soient autorisés à construire les transactions. Par contre, tout le monde peut être mineur dans le nœud autorisé à générer un nouveau bloc. Cette blockchain sera ce que l’on appelle un consortium.

Figure 2. Niveaux de consensus blockchain.

Confidentialité dans un consortium :

Considérons que nous avons plusieurs détaillants et fournisseurs dans un système de chaîne d’approvisionnement : ainsi, chaque fournisseur sera en mesure de voir les commandes d’achats ou de l’inventaire de l’autre, s’ils sont membres d’un consortium.

 

Trois questions se posent alors :

  1. La nature de l’information : Virtuelle vs Réelle :

Bitcoin utilise la blockchain pour gérer la propriété d’une crypto-monnaie (monnaie virtuelle). L’utilisation d’une chaîne de blocs pour gérer la propriété d’actifs physiques, comme dans une chaîne d’approvisionnement, aura des exigences technologiques différentes (par exemple, GPS et RFID). Ces différentes exigences conduiraient à une conception et une mise en œuvre différentes.

 

  1. Quand avons-nous besoin de générer un nouveau bloc ?

Lorsque l’état de l’objet est changé par un nœud présélectionné, une transaction se produit et nous devons générer un nouveau bloc par un mineur. Le changement d’information doit être synchronisé entre la RFID et la blockchain.

Figure 3. Une transaction dans la chaîne d’approvisionnement.

 

La figure 4 montre un exemple, lorsque l’emplacement de l’objet change.

  1. Premièrement, la « location » sera mise à jour dans l’objet automatiquement et localement en utilisant le GPS.
  2. Un nœud présélectionné lit le nouvel emplacement et met à jour le nouvel état. Une nouvelle transaction sera alors diffusée dans l’ensemble du réseau par ce nœud présélectionné.
  3. Un mineur reçoit cette nouvelle transaction et commence à résoudre la preuve de travail (ou Proof of Work). Puis, il génère un nouveau bloc, insère une transaction dans le bloc et diffuse ce nouveau bloc.
  4. Enfin, après avoir reçu le nouveau bloc par le réseau, la blockchain sera mise à jour et le mineur recevra une récompense automatiquement par un contrat intelligent intégré dans la blockchain.

Figure 4. Exemple de validation d’une nouvelle transaction et mise à jour de la chaîne de blocs pour le changement de localisation.

 

  1. Comment motiver un mineur à générer un nouveau bloc dans la chaîne d’approvisionnement ?

En intégrant les contrats intelligents dans le système comme suit.

La figure 5 montre un contrat intelligent (ChainCode) comme un pseudocode dans lequel, si l’état de l’objet change, qu’un nouvel état est lu par RFID et qu’un mineur peut résoudre la preuve de travail, alors le mineur génère un nouveau bloc, insère une transaction dans ce nouveau bloc, puis le diffuse sur l’ensemble du réseau.

Pour cette action, le mineur recevra automatiquement des coins en récompense par contrat intelligent intégré en blockchain.

Figure 5. Pseudocode d’un contrat intelligent par lequel un mineur est motivé pour valider une nouvelle transaction.

Dans un cas général, avec un autre type de consensus que la Proof-of-Work, un mineur serait un validateur et se comporterait comme décrit dans la figure 6.

Figure 6. Pseudocode d’un contrat intelligent par lequel un validateur est motivé pour valider une nouvelle transaction.

 

CONCLUSION :

Les systèmes de comptabilité centralisés et basés sur la confiance conduisent à des goulots d’étranglement et à des ralentissements des transactions. Le manque de transparence, ainsi que la susceptibilité à la corruption et à la fraude, conduisent à des différends. Devoir régler les différends et éventuellement annuler les transactions ou fournir une assurance pour les transactions est coûteux. Ces risques et incertitudes contribuent à des occasions d’affaires manquées.

De plus, des copies non synchronisées des business ledgers sur les propres systèmes de chaque participant au réseau amènent à des décisions commerciales erronées prises sur des données temporaires et incorrectes. Ou bien alors, au mieux, la capacité de prendre une décision en toute connaissance de cause est retardée pendant la résolution des différentes copies des registres.

S’appuyant sur le système blockchain, toutes les informations d’objets dans la chaîne d’approvisionnement étant transparentes et ouvertes, l’entreprise de logistique pourra mettre en place un suivi en temps réel de ses produits. Le consommateur pourra ainsi obtenir l’information complète des produits à tous niveaux de la chaîne d’approvisionnement, ce qui sera bénéfique pour établir un environnement de marché sain. En utilisant la technologie blockchain, plus aucun membre du système n’aura la capacité de manipuler les informations sur les objets, ce qui augmente la sécurité et la qualité du produit.

 

Article rédigé par Siamak SOLAT