Pages

lundi 22 janvier 2024

La véritable stratégie de Facebook et des réseaux sociaux

 Jusqu’où ira Facebook dans un océan informatique où se succèdent les déferlantes

par Pierre Berger.

 Facebook, c’est avant tout un homme : Marc Zuckerberg. Il a une personnalité étonnante. Aujourd’hui il a 40 ans et il est à la tête d’une fortune de 120 milliards de dollars. L’entreprise comprend 86.000 salariés mais il la dirige entouré par une petite équipe comprenant seulement une dizaine de collaborateurs de haut niveau.

Après deux années difficiles 2022 et 2023 est-ce que l’entreprise va reprendre la rapide croissance qu’elle a connu dans le passé. Que va-t-il se passer dans les années à venir ? Il est impossible de le prédire étant donné les évolutions très rapides du secteur et notamment l’impact de l’Intelligence Artificielle et en particulier les progrès sidérants constatés depuis un an l’IA Générative, sans parler des évolutions erratiques de la situation internationale et les contraintes dues à la transition de l’écologie.

Des milliards d’utilisateurs à travers le monde se servent quotidiennement des réseaux sociaux et en particulier de Facebook. Ainsi dans ma ville, à Maison Lafitte, il existe un site d’échange ouvert à tous les habitants. 12 000 membres fréquentent ce groupe, ce qui fait beaucoup pour une ville de 25 000 habitants. C’est un moyen très performant pour informer les gens La véritable stratégie de Facebook et des réseaux sociaux »

Jusqu’où ira Facebook dans un océan informatique où se succèdent les déferlantes aussi pour résoudre les mille et un petits problèmes du quotidien comme les chiens recherchés ou les objets perdus. C’est aussi un moyen d’échanger entre les participants sur des sujets d’intérêt communs comme les décisions ou les non-décisions de la Mairie, les nouveaux permis de construire... En fait, seule une petite minorité est vraiment active et le reste des utilisateurs se contente de s’informer et, le cas échéant, de cliquer des « like ».

Le projet d’origine de Marc Zuckerberg était ambitieux et généreux. Il voulait donner la parole aux gens afin que chacun puisse s’exprimer librement et gratuitement. C’est une forme absolue de la démocratie. Mais il y a loin des intentions à la réalité. Depuis deux décennies, il a manifesté en toutes circonstances un pragmatisme assez éloigné des considérations théoriques ou des grands principes éthiques. En fait son véritable objectif est la croissance de Facebook et le profit à tout prix. En effet ce réseau social est un support de publicité très efficace et plus le trafic est important plus les gains de l’entreprise sont importants. Pour cela il suffit d’inciter les participants à échanger et très vite à polémiquer. Très vite le ton monte et les invectives arrivent. C’est la porte ouverte au défoulement de tous les frustrés du monde.

Dans ces conditions les efforts de modération deviennent marginaux. Normalement tout message mensonger, choquant ou haineux devrait être rapidement supprimé. Mais, compte tenu du nombre de sites dans de très nombreuses langues cela devient très vite « mission impossible ». Les équipes chargées de faire ce travail ont été réduites au profit d’algorithmes à base d’Intelligence Artificielle avec des résultats incertains.  

Techniquement, Marc Zuckerberg pousse ses développeurs à aller le plus vite possible pour passer de l’idée à la mise en production avec, par exemple, la volonté d’effectuer tous les développements en DevOps plutôt que de recourir à des développements méthodiques effectués dans le cadre des projets : « Done is better than perfect ». C’est le « vite fait, bien fait sur le coin du gaz ». Cette stratégie technique est audacieuse et originale dans le cadre d’un site ayant un si grand nombre d’utilisateurs et un trafic aussi important mais on retrouve ce type de politique dans un nombre croissant de sites de commerce électronique. C’est une stratégie risquée notamment à cause des risques de dégradation des performances mais ça marche et c’est le principal.

En fait Marc Zuckerberg, malgré ses discours officiels, rejette les grands principes de « qualité » ou de « vérité ». Ce qui compte, c’est la mobilisation des utilisateurs. Pour cela il faut mesurer cet « engagement ». Les équipes spécialisées de Facebook ont dans ce but développé un indicateur majeur : le MSI (Meaningful Social Interaction). Il permet d’évaluer la dynamique des échanges entre les participants en mesurant les interactions, le degré de participation, les attitudes des intervenants et le niveau de sécurité perçues par les personnes. Cet indicateur est notamment utilisé pour alimenter le « newfeed » qui affiche en permanence à l’écran des informations choisies par les algorithmes pour attirer l’attention des utilisateurs. Il est très utile mais, l’expérience montre qu’il a tendance à accroitre l’agressivité des intervenants. Ce n’était peut-être pas l’objectif recherché mais c’est le résultat obtenu.

A cela s’ajoute le poids des puissants. Ce sont des personnalités ayant une grande visibilité, des groupes de pression puissants ou des états comme les Etats-Unis, l’Inde ou le Myanmar, n’hésitent pas à faire pression sur Facebook. Face à ce type de « problèmes » il existe des solutions mais Marc Zuckerberg les a toutes rejetées. Ces attitudes opportunistes montrent bien toutes les ambiguïtés de l’entreprise.

Cependant rien n’est définitif dans le domaine des réseaux sociaux. Chaque jour on constate que de nouveaux « breakthroughs » surviennent sans prévenir et qui vont influencer les évolutions du système notamment dans le domaine de l’Intelligence Artificielle. Nous surferons sur de véritables déferlantes …

Ce texte est un résumé de la conférence que Pierre Berger a fait au Club de la Gouvernance des Systèmes d’Information le Mercredi 10 Janvier 2024 sur le thème : « La véritable stratégie de Facebook et des réseaux sociaux. Jusqu’où ira Facebook dans un océan informatique où se succèdent les déferlantes ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :

-        Quelles sont les raisons du succès des réseaux sociaux ?

-        Quelles sont les utilisations pratiques possibles ?

-        Quelles sont les vrais objectifs de Facebook ?  

-        De manière pratique comment les utilisateurs se servent des réseaux sociaux ?

-        Comment lutter contre les comportements perturbateurs ?

-        Après les années difficiles de 2022 et 2023 va-t-on assister en 2024 à un redémarrage ?

-        Peut-on améliorer la qualité des échanges ou doit-on prioriser la liberté d’expression ?

-        Comment contrôler les contenus sans censurer ?

-        ….

Lire ci-dessous le support de présentation de l’exposé de Pierre Berger :

                                                                                                          Slide

1 – La force de l’âge et les moyens d’agir                              2

2 – Le site de Maisons-Lafitte sur Facebook                          4

3 – La croissance avant tout                                                  12

4 – La gouvernance des contenus                                         15

5 – Modération                                                                      17

6 – Les puissants ont tous les droits                                      21

7 – Conclusion                                                                       27

 

 

 

vendredi 12 janvier 2024

Peut-on encore contrôler l'Intelligence Artificielle ?

 par Claude Salzman.

L’IA suscite de grands espoirs et notamment l’IA Générative. On n’avait jamais vu avant dans le domaine de l’informatique un enthousiasme aussi important que lors du lancement de ChatGPT. En seulement deux mois 100 millions d’utilisateurs se sont connectés au système. Mais ils suscitent aussi de nombreuses craintes. Arrivera-t’on a réellement les maitriser ? Que se passera-t-il s’ils échappent à notre contrôle ? L’homme va-t-il devenir l’esclave de ces systèmes à base d'IA ?

En mars 2023, soit 4 mois après le lancement de ChatGPT, une pétition a été lancé par une association américaine, « Futur of Life Institute », demandant que soit mis en place un moratoire de six mois sur la recherche en Intelligence Artificielle Générative (voir https://futureoflife.org/open-letter/stoppons-les-experimentations-sur-les-ia-une-lettre-ouverte/ ). Elle évoque « un risque majeur pour l’humanité » et dénonce : « une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne, pas même leurs créateurs ne peuvent comprendre, prédire ou contrôler de manière fiable ». Sur la base de cette affirmation ils demandent que : « tous les laboratoires d’IA à stopper pour une durée d’au moins 6 mois le développement des IA plus puissante que GPT-4 »

Cette attitude est due à un débat qui agite la Silicon Valley depuis quelques années sur les risques de catastrophe planétaire dues à l’Intelligence Artificielle et particulièrement l’IA Générative. Il oppose deux clans : les optimistes et les pessimistes. Les premiers sont les enthousiastes qui ont une grande confiance dans la technologie. Ils s’identifient comme les « Effective Acceleration » ou en californien les « e/acc ». Les seconds sont les catastrophistes appelés les « AI Doomers ». Ils craignent que bientôt une superintelligence va apparaitre et se retourner contre l’humanité : chômage massif puis sa mise en esclavage et enfin son élimination car elle serait devenue inutile. Ils sont influencés par deux livres :

-        En 2000, Bill Joy co-fondateur de Sun Microsystems a écrit un livre étrange : « Pourquoi l'avenir n'a pas besoin de nous ». Il explique dans cet ouvrage que rapidement on va assister à l’arrivée des robots superintelligents qui constituent un danger pour la survie de l’humanité. C’était il y a 24 ans !

-        Plus récemment, en 2014, Nick Bostrom, a publié "Superintelligence, chemins, dangers, stratégies". C’est un des penseurs clés du transhumanisme. Il affirme que les superintelligences artificielles constituent un risque existentiel pour l’humanité car elles seraient incontrôlables. Pire : elles agiraient de manière anticipée de façon a empêcher toute tentative de les contrôler. On se croirait dans le film de Stanley Kubrick « 2001 Odyssée de l’espace » ou l’ordinateur de bord HAL ([1]) veut tuer l’équipage du vaisseau spatial pour se sauver.

Pour en savoir plus sur ces légendes il existe une curieuse page de Wikipédia sur les « Risques de catastrophe planétaire lié à l’intelligence artificielle » : https://fr.wikipedia.org/wiki/Risque_de_catastrophe_plan%C3%A9taire_li%C3%A9_%C3%A0_l%27intelligence_artificielle_g%C3%A9n%C3%A9rale#:~:text=Les%20syst%C3%A8mes%20avanc%C3%A9s%20d'IA,elle%2Dm%C3%AAme%20si%20mal%20align%C3%A9e.

On est loin des trois lois de la robotique d’Isaac Asimov dans "Cycle de Fondation" (https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique) et notamment la première loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ». Chez Nick Bostrom c’est exactement l’inverse : le robot ne peut que nuire à l’homme et chercher sa perte. 

C’est le Kraken. C’est le mot à la mode du côté de San Francisco. C’est un animal mythique issue du fond culturel norvégien. C’est une sorte de calamar géant sortant des grands fonds marin pour détruire les bateaux et tuer tous les marins (voir les dessins du Kraken dans les slides ci-dessous).

Rassurons nous il n’y a pas de Kraken et le moratoire demandé par le « Futur of Life Institute » n’a pas été mis en place. Par contre on a assisté entre le mois de mai et novembre 2023 à une multiplication des initiatives des Etats et des organisations internationales dans ce domaine. Chacun a proposé un ou plusieurs moyens de réguler les développements de l’Intelligence Artificielle. Tout le monde s’y est mis : l’Union Européenne, les gouvernements américains et anglais, le G7, l’ONU, … Cela va de l’interdiction de certaines applications comme la reconnaissance faciale à la nomination d’un GIEC pour l’Intelligence Artificielle analogue à celle sur le climat.

Tous conviennent qu’il est nécessaire de contrôler ce « monstre » Mais comment s’y prendre ? Deux approches s’affrontent : l’européenne et l’américaine.

-        L’UE mise sur une réglementation détaillée et assez rigoureuse qui est en discussion depuis plus de quatre ans : l’AI Act. Ce texte n’est pas sans rappeler le RGPD. C’est un ensemble de règles strictes concernant la conception, les tests et l’exploitation des systèmes d’information à base d’Intelligence Artificielle. En fait c’est une transposition de la procédure de mise sur le marché des médicaments.

-        Aux USA comme au G7 on parie sur l’autorégulation ainsi que sur la responsabilisation des entreprises du secteur et des administrations concernées. C’est, par exemple, le dispositif mis en place dès novembre 2022 par la Maison Blanche qu'elle cherche à mettre en place dans les administrations fédérales (https://www.whitehouse.gov/ostp/ai-bill-of-rights/safe-and-effective-systems-3/ et le manuel de mise en œuvre https://www.whitehouse.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf ) Cette démarche repose notamment sur l’audit des systèmes à base d’Intelligence Artificielle.

En effet il existe dans le domaine de l’Intelligence Artificielle, comme de manière plus générale en informatique, un certain nombre de bonnes pratiques ([2]) que les professionnels appliquent faute de quoi les systèmes finissent par dériver et finissent par commettre des erreurs ou « se planter ». En Intelligence Artificielle on parle plutôt dev "biais" et en IA Générative « d’hallucination ».

Les bonnes pratiques sont d’abord celles qui sont communes à tous les projets et à toutes les applications informatiques. Il y a ensuite un certain nombre de bonnes pratiques spécifiques aux systèmes à base d’Intelligence Artificielle (voir les slides 15 et 16 ci-dessous). Certaines sont faciles à mettre en œuvre comme la possibilité pour un utilisateur de demander l’assistance d’un être humain et d’autres sont nettement plus complexes réaliser comme la lutte contre les biais. La plupart de ces bonnes pratiques sont aujourd’hui connues, d’autres vont apparaitre au fur et à mesure des progrès réalisés en matière d’Intelligence Artificielle.

A la question : « Peut-on encore contrôler l’Intelligence Artificielle ? » la réponse est bien entendu positive. Pour maitriser ces applications il est nécessaire d’effectuer périodiquement des audits de ces systèmes en fonction des niveaux de risques identifiés comme on le fait pour la comptabilité, la facturation, la paie, …. Plus ces applications concernent un grand nombre d’utilisateurs, plus les enjeux sont importants, plus les niveaux de risques sont élevés et plus il est nécessaire de les auditer.

Ceci permet d’éviter de mettre en place des procédures de contrôles lourdes et globalement peu efficaces et ainsi d’éviter les dérives bureaucratiques comme celles qui ont été constatés avec le RGPD.

 En matière de recherche et d’innovation il existe une règle fondamentale : il est important de laisser les développeurs et les exploitants travailler en leur rappelant, que pour éviter toute dérive il est nécessaire de respecter les bonnes pratiques. Il est toujours possible de limiter le nombre de contrôles mais, en cas de dérives significatives et répétées, il faut rapidement réagir et prendre les mesures correctives qui s'imposent et le cas échant de débrancher le système si les risques sont trop élevés. 

Ce texte est un résumé de la conférence que Claude Salzman a fait au Club de la Gouvernance des Systèmes d’Information le Mercredi 20 Décembre 2023 sur le thème : « Peut-on encore contrôler l’Intelligence Artificielle ? ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :

-        Quels sont les risques et les menaces liées à l’Intelligence Artificielle ?

-        N’est-il pas déjà trop tard pour espérer les réduire ?

-        Arrivera-t’on a réellement maitriser ces systèmes ?

-        Peut-on encore contrôler l’Intelligence Artificielle ? 

-        Que se passera t ’il s’ils échappent à notre contrôle ?

-        Comment éviter que l’homme deviennent l’esclave de ces systèmes ?

-        Quels sont les dispositifs à mettre en place pour arriver à maîtriser ces systèmes ?

-        ….

 Lire ci-dessous le support de présentation de l’exposé de Claude Salzman :

                                                                                                          Slide

1 – Panique à bord                                                                   3

2 – La multiplication des initiatives                                        4

3 – La grande peur du Kraken                                                 6

4 – Les deux stratégies                                                          10

5 - Réglementer et punir                                                        11

6 – Les péripéties de l’AI Act                                               12

7 – La contrainte volontaire                                                  13

8 – Auditer dit-il                                                                    14

9 – Conclusion                                                                       17

Retour sur la question du titre                                               18

 


[1] - Curieusement HAL c’est IBM décalé d’un caractère vers la gauche. Etonnant ?

[2] - Il est difficile de définir ce que sont les bonnes pratiques. Par contre on voit bien ce que sont les mauvaises pratiques. On peut définir les bonnes pratiques en disant que ce sont les opérations et les contrôles que chacun sait qu’il faut faire mais que parfois on oublie d’effectuer.

mardi 10 octobre 2023

Architecture de données, le nouveau cœur du système d’information ?

                                                                                                            Par Philippe Nieuwbourg

Pendant de nombreuses années en informatique la gouvernance de données n’était pas considérée comme un sujet majeur. On ne l’évoquait que dans des cas particuliers comme pour les grandes bases de données ou des systèmes d’information particulièrement complexes. Plus récemment on a commencé à s’intéresser à la gouvernance de données avec le développement des ERP et surtout avec le développement de l’Intelligence Artificielle, notamment le « machine learning ». En effet, la qualité des données est fondamentale pour paramétrer efficacement ces systèmes.

Depuis quelques années on a pris conscience que les données constituent une partie significative du patrimoine des entreprises et des administrations. Pour l’améliorer il est nécessaire qu’un travail de conception significatif soit effectué. Il ne doit pas être mis en œuvre application par application mais réalisé au niveau du système d’information de l’entreprise car la même donnée ou le même ensemble de données peuvent être produits et utilisés par différents systèmes.

L’importance croissante des architectes

Dans ces conditions, la définition des données mais aussi leur stockage et leur gestion deviennent des enjeux cruciaux. Il est pour cela nécessaire d’améliorer l’architecture des données et de disposer de la compétence de professionnels appelés architectes de données. C’est une profession qui monte. Une requête réalisée ces jours-ci sur LinkedIn montre que dans le monde 70.000 personnes s’identifient comme « Data Architect » et 604 s’identifient en français comme des « architectes de données ». Comme on le voit c’est une profession qui progresse.

Mais en informatique le terme architecte est ambigu. Il y a quelques mois, je donnais une formation sur le Big Data à la SNCF. Dans la salle, j’ai rencontré non pas un, ni deux, mais douze architectes… tous de la SNCF, tous arborant des titres différents, et ils ne se connaissaient pas les uns les autres. Accessoirement, aucun n’était vraiment chargé des données, alors même qu’ils venaient suivre une formation sur ce sujet.

Il existe en informatique de nombreux type d’architectes différents comme les architectes d’entreprise, les architectes d’application, les architectes fonctionnels, les architectes techniques, les architectes systèmes, les architectes réseaux et maintenant le petit nouveau qui commence à pointer le bout de son nez, l’architecte de données ou « Data Architect ». Au cours des cinq dernières années, selon Google Trends, les recherches sur Google concernant le terme “architecte de données”, ont bondi de plus de 30 %. Cela montre bien l’intérêt croissant pour la fonction.

Mise en perspective des évolutions de la fonction

Pendant les décennies de 1990 à 2010 où on a considérablement développé l’usage des ERP, l’application était reine et elle embarquait avec elle ses données. A cette époque l’essentiel des efforts portait sur le développement des fonctions mises en œuvre. Cependant, on a noté, dès cette époque, qu’une attention particulière était portée à la mise en commun de certaines données. Cette démarche a fait clairement apparaître la complexité du partage des données.

Ensuite on a assisté au développement des systèmes décisionnels (infocentre, data warehouse, data lake, …) et surtout il y a eu plus récemment le développement de l’emploi du cloud. Ils ont mis en évidence le rôle fondamental de la définition et de la gestion des données. Il est ainsi apparu peu à peu que leur place est au cœur même du système d’information. Mais surtout ces démarches ont montré, contrairement aux idées dominantes à cette époque, que les données doivent être indépendantes des applications qui les utilisent.

Dans ces conditions, il est probable que dans les années à venir, on va assister au développement rapide du métier d’architecte de données. Son rôle consiste à définir et à maintenir l’architecture de données, indépendamment des applications mais en relation avec elles. Il a la responsabilité de :

-        Échanger avec les métiers, les informaticiens et en particulier avec les « data scientists »,

-        Évaluer l’architecture de données en place et prévoir son évolution,

-        Concevoir une nouvelle architecture de données,

-        Planifier la mise en œuvre d’un modèle de données,

-        Estimer les coûts d’investissement et de fonctionnement,

-        Mettre en œuvre les meilleurs pratiques d’ETL (Extraction, Transformation, Chargement),

-        Surveiller les bases de données existantes, assurer leur sécurité et suggérer des mises à jour,

-        Contrôler la conformité des données,

-        Documenter l’architecture des données et la maintenir à jour,

-       

Comme on le voit, les tâches à accomplir sont nombreuses et variées. C’est une fonction délicate à accomplir car l’architecte, on le sait, conçoit mais il ne construit pas. En effet, la mise en œuvre est réalisée par d’autres.

C’est une fonction transverse qui impacte presque toutes les autres. Dans ces conditions ses interventions sont parfois perçues comme des perturbations, voir des agressions. Mais le fait de ne pas intervenir n’arrange pas une situation délicate ou compromise. En fait, c’est un problème de structure de l’entreprise.

En pratique on hésite en permanence entre une organisation centralisée ou un système de type fédéral. Dans ce dernier cas chacun intervient dans un cadre réglementé et négocié. On constate que depuis quelque temps le modèle fédéral tend à se développer et un certain nombre d’entreprises mettent en place des « Chief Data Officer ». Cependant, ce modèle a une limite car assez vite on risque de se heurter à la volonté d’autonomie naturelle des métiers avec les risques de balkanisation bien connus qui s’en suivent.

Les fonctions de l’architecte de données

La définition d’une architecture de données est le cœur de la démarche de gouvernance de données. Elle repose quelques points clés qu’il est important de mettre en œuvre :

-        Définir le rôle de l’architecture de données et sa place dans le système d’information,

-        Préciser la fonction de l’architecte de données : son profil, ses missions et son rattachement hiérarchique,

-        Organiser les relations entre les différents métiers d’architecte au sein de l’organisation et notamment en ce qui concerne la répartition des rôles, les relations avec les hiérarchies et le recouvrement des opérations,

-        Définir le schéma directeur de données (Data Framework), le modèle de données (Data Schema) et le cycle de vie des données (Data Lifecycle),

-        Prévoir le rôle de l’architecture de données afin de répondre aux besoins du Big Data,

-        Définir son rôle dans la gouvernance des systèmes d’information de l’entreprise et de manière plus générale dans la gouvernance de l’entreprise,

-       

Comme on le voit c’est une activité fondamentale pour l’avenir des systèmes d’information mais elle est parfois difficile à mettre en œuvre. A terme il est probable que cette démarche va évoluer vers le « Data Mesh ». Cette évolution est hâtée par le développement de l’Intelligence Artificielle et notamment l’apprentissage machine (Machine Learning). A terme, il est possible que on assiste à un découplage de l’architecture des données et de l’architecture applicative.

Ce texte est un résumé de la conférence que Philippe Nieuwbourg a fait au Club de la Gouvernance des Systèmes d’Information le Mardi 26 Septembre 2023 sur le thème : « Architecture de données, le nouveau cœur du système d’information ? ». Elle a permis de faire le point sur ce sujet et de répondre à quelques questions clés :

-        Qu’est-ce que l’architecture de données ?

-        Quel rôle assure l’architecte de données ?

-        Quelles relations entre l’architecte de données et les métiers ?

-        Quelles sont les évolutions probables de la fonction ?

-        ….

Lire ci-dessous le support de présentation de l’exposé de Philippe Nieuwbourg :

                                                                                                                                 Slide

1 – Définitions                                                                                                           2

2 – Rôle de l’architecte de données                                                                            6

3 – Quelques qualités sont nécessaires                                                                       7

4 – Intégrer l’architecture de données au cœur de l’équipe data                             10

5 – Comment ont évolué les modèles de gouvernance                                            16

6 – Choisir un modèle d’entreprise ; centralisé ou fédéral ?                                    17

7 – La balkanisation des données                                                                             20

8 – La place du Data Lake                                                                                        22

9 – Le Data Mesh                                                                                                     25

  

samedi 30 septembre 2023

Réussir la transformation numérique

Donner à l’ensemble des collaborateurs de l'entreprise une culture du numérique

                                                                                    Par Bernard Laur

 Malgré les affirmations souvent répétées, la transformation numérique des entreprises ne se fait pas dans la joie et l’allégresse. Un certain nombre de firmes rencontrent des déconvenues, des difficultés de mise en œuvre et même parfois des échecs.

 

Lorsque l’on cherche à comprendre ce qui s’est passé, on constate que différents facteurs expliquent ces « plantages » :

-        Un majorité des salariés se trouvant dans les différents métiers de l’entreprise n’ont pas la moindre idée sur ce que pourrait leur apporter le numérique. Ils utilisent quotidiennement l’informatique et en concluent que toutes ces technologies apportent plus de contraintes que de valeur. En vérité ils ont une culture technologique limitée.

-        Les équipes de recherche-développement chargées de concevoir les nouveaux produits et services marginalisent totalement la composante numérique de leurs projets. Très souvent ils ignorent les évolutions technologiques mais surtout ils sont sceptiques sur leurs impacts. Ce qui fait que les nouveaux produits ou les services sont dépassés dès leur sortie ou rapidement obsolètes.

-        De nombreux collaborateurs utilisent mal les outils informatiques disponibles. Ils ont une connaissance superficielle des fonctions proposées. Ceci fait qu’ils sous-utilisent ces outils. Pire, ils cherchent parfois à les contourner, gardent des procédures manuelles ou alourdissent inutilement leurs procédures.

-        Les travailleurs de première ligne ont été oubliés. L’essentiel des systèmes d’information concernent la gestion, le commercial, les ressources humaines mais ignorent les ateliers, la logistique, les itinérants, … Les ouvriers et les opérateurs (Front Line Workers)  ne disposent pas d’applications adaptées à leur activité. Pourtant ils ont des besoins de gestion, de suivi, d’assistance aux opérations, de contrôle, …

-        Face à l’évolution foisonnante et « brownienne » du secteur du numérique, les informaticiens n’arrivent pas à se tenir au courant des évolutions et innovations tant en ce qui concerne les technologies, les matériels que les logiciels. Ils ne connaissent que quelques/leurs systèmes et les environnements permettant de les mettre en œuvre, ce qui fait qu’ils ont du mal à sortir de ce qu’ils ont l’habitude d’utiliser. Ceci concerne l’informatique mais de manière plus générale les technologies et applications numériques.

-        L’encadrement, les membres des Codir et des Comex, les patrons de métiers sont totalement dépassés par les innovations informatiques et de manière plus générales par tous ces changements.

Dans ces conditions, il ne faut pas s’étonner des retards constatés en matière d’évolution, de prise en compte des innovations et des difficultés rencontrées dans les opérations de transformation numérique.

 La cause de ces blocages est due en grande partie au faible niveau de connaissance des technologies numériques et de leur évolution par le personnel de l’entreprise et particulièrement par les dirigeants, constaté dans de nombreuses entreprises notamment dans les activités de service et particulièrement dans l’industrie. Pour changer ces comportements il est nécessaire de faire évoluer la culture technique de l’entreprise. C’est un changement en profondeur. Il est pour cela conseillé de mettre en place une politique d’une certaine ampleur. C’est une stratégie concertée, continue, avec une vision à moyen terme de l’ordre de cinq ans au minimum. Il est pour cela nécessaire de :

  • -        S’assurer que les décideurs et les principaux responsables ont les bases techniques nécessaires pour comprendre les évolutions en cours et prendre les décisions liées.
  • -        Aider le personnel de l’entreprise à mieux utiliser les applications existantes et surtout connaître les possibilités qu’elles offrent.
  • -        Informer l’ensemble des salariés de l’entreprise des évolutions et innovations technologiques concernant leurs différents métiers.
  • -        Faire prendre conscience des possibilités exposées par les concurrents et des avancées des entreprises « best in class » au niveau mondial.

 Pour cela il est nécessaire de mettre en place une démarche de formation et d’organisation concernant l’ensemble de l’entreprise :

  • -        Elle commence par le coaching informatique de tous les dirigeants (ou  du moins ceux qui acceptent, mais les exceptions sont rares…). Ce sont le directeur général et tous les membres du comité de direction, et par extension les managers « métiers ».Il est nécessaire de voir chacun en tête à tête pendant le temps nécessaire pour lever tous les doutes et compléter leur niveau de connaissances du sujet. Généralement 8 séances de 2 heures chacune sont nécessaires. Au cours de ces entretiens, le coach assure une présentation « pédagogique » de ce que sont les technologies, les composants, les architectures du SI,… et fait une large part aux échanges informels. Tous les sujets sont abordés avec les « coachés » et il est nécessaire de répondre à toutes les questions qu’ils se posent … en toute confidentialité.
  • -        Mettre en place un dispositif de veille technologique de façon à suivre l’évolution du domaine numérique en général et à permettre de repérer les innovations concernant les différents métiers de l’entreprise. Cette veille se concrétise par des notes de synthèse mensuelles adaptées aux informaticiens d’une part et à chaque métier d’autre part. Ces informations sont diffusées par abonnement email, sur l’Intranet et accessibles à tous les collaborateurs et en particulier aux informaticiens. Une attention toute particulière doit être portée à la lisibilité des documents. L’objectif est de lutter contre l’illisibilité des documents produits qui est un mal commun aux métiers du numérique : c’est la démarche FLAC, c’est-dire « Facile A Lire et à Comprendre », qui impose des règles de rédaction, d’explicitation et de présentation (graphique) de l’information applicables à tous documents émis et diffusés par la DSI. Les notes mensuelles sont complétées par un document de synthèse trimestriel et/ou une visioconférence de courte durée (30 minutes) ouverte à tous à une heure de large disponibilité individuelle (13 heures 30 ?)  pour mettre le focus sur les points clés tout en les vulgarisant.
  • -        Organiser des opérations d’information et d’assistance à la demande dans les unités opérationnelles métiers, les services « tertiaires », les représentations régionales, ... Ces réunions doivent avoir lieu périodiquement de façon à répondre aux questions des salariés et (le cas échéant) de les alerter sur les innovations technologiques importantes les concernant.
  • -        Améliorer la maîtrise de « leur » informatique par les collaborateurs. Pour cela il faut créer des « workshops d’usage » courts (une heure) permettant d’améliorer l’utilisation des applications existantes en mettant l’accent sur une fonctionnalité, un process majoritairement méconnu des utilisateurs (les règles dans Outlook par exemple) que trop souvent les utilisateurs méconnaissent ou sous-emploient par ignorance, sans compter les cas de mauvais usages . Ces workshops ne remplacent en aucun cas la formation initiale qui reste incontournable : la formation initiale présente « ce que vous pouvez faire » avec un outil, et ensuite les workshops décrivent « ce que vous devez faire » pour être efficace.
  • -        Vérifier que la formation initiale sur les applications et le SI est toujours réalisée systématiquement et dans de bonnes conditions, en particulier pour les nouveaux embauchés. Passent-ils « sous le radar » ? Il faut absolument éviter la formation sur le tas et le bouche à oreille, à l’origine de la plupart des mésaventures ultérieures.
  • -        Compléter ces actions de formation par des « analyses d’usage »  réalisées par des professionnels expérimentés chargés de « regarder par-dessus l’épaule des utilisateurs » afin de détecter les mauvaises ou non productives utilisations des outils numériques, lesquelles sont souvent le résultat de défauts d’ergonomie et de conception des logiciels. Ces opérations permettent d’initier  les besoins d’adaptation des applications et des processus en se basant sur les difficultés rencontrées par les utilisateurs. Les investissements nécessaires, souvent  de maintenance logicielle, ont des ROI inférieurs à un an.
  • -        L’expérience montre que la marge d’amélioration de l’efficacité d’utilisation par les trois mesures ci-dessus (Formation initiale + workshops + amélioration de l’UX) est de l’ordre de 20 % à 40 % !
  • -        Enfin, - dernier point très important - il faut s’assurer que le dispositif d’assistance, de conseil et de service, le « call center », est bien disponible si nécessaire 24 h sur 24 et 7 jours sur 7, notamment dans le cas de multinationales et que les membres de ce service ont bien assimilé l’ensemble des actions, informations, formations décrites précédemment. Une personne ayant des difficultés ne doit en aucun cas rester seule avec son problème ou sa préoccupation. C’est un point fondamental et souvent délicat à mettre en pratique surtout lorsque ce service est sous-traité.

 Cette démarche est un processus progressif et qui ne fait apparaître ses gains qu’après un ou deux ans. Il doit s’intégrer dans un business model et mettre en œuvre une gouvernance adaptée. Bien entendu cette démarche à un coût, mais c’est le prix à payer pour rester dans la course à l’innovation numérique. C’est la loi des cinq : « 5 ans, 5 personnes pour 5.000 collaborateurs et un budget annuel de sous-traitance de 500.000 euros ». Sans cela les transformations numériques nécessaires seront d’une trop faible ampleur et elles interviendront trop tard.

 

C’est un résumé de la conférence de Bernard Laur faite au Club de la Gouvernance des Systèmes d’Information le Mercredi 31 Mai 2023 sur le thème : « Donner à l’ensemble des collaborateurs de l'entreprise une culture de base du numérique - La « e-culture » des collaborateurs, clef de la « e-transformation » de l’entreprise ». Elle a permis de faire le point sur ce sujet et de répondre aux questions clés :

-        Comment rendre efficace et efficiente la transformation numérique des entreprises ?

-        De quelle manière permettre aux entreprises de saisir les opportunités liées aux évolutions et innovations technologiques ?

-        Comment changer l’attitude des salariés de l’entreprise face aux changements technologiques ?

-        Quels dispositifs adopter pour faire évoluer leur culture ?

-        ….

Lire ci-dessous le support de présentation de l’exposé de Bernard Laur :

                                                                                                                                 Slide

1 – Le constat                                                                                                2

2 – La solution                                                                                                4

3 – Quelle est la situation ?                                                                             6

4 – Coaching SI                                                                                              8

5 – Veille IT                                                                                                  10

6 – Workshops « Usage »                                                                             11

7 – Contrôle Design et performance                                                             13

8 – En résumé