Dites-nous en plus sur votre projet

Nous vous proposerons une formule adaptée à vos besoins, ainsi qu’une estimation de devis.
Laissez-vous guider

Pourquoi choisir Aneo pour votre projet ?

Aneo est une agence conseil en transformation qui vous accompagne tout au long de la vie de vos projets sur des problématiques de :

Le +  d’Aneo : le conseil sans frontière !

Notre richesse, c’est de vous proposer des équipes pluridisciplinaires, chaque membre avec une approche, une expérience et une sensibilité différente : coach agile, formateur soft skills, Data Scientist designer, Architecte etc. On mise sur la complémentarité des disciplines pour vous apporter la meilleure réponse !

Pourquoi choisir Aneo  pour votre projet ? - Aneo

Aneo, une organisation à part entière !

Depuis 2015, Aneo est une organisation plate à gouvernance plate. Aplatir la hiérarchie, supprimer les silos, instaurer des bonus collectifs, ce nouveau modèle d’organisation avec comme objectif: apporter plus de valeur  à l’entreprise, aux collaborateurs et aux clients.

Le + d’Aneo : l’inattendu !

La sérendipité, c’est « le don de faire par hasard des découvertes fructueuses ». Chez Aneo, nous croyons fermement que les meilleures solutions sont parfois les plus inattendues. Ne rien s’interdire, expérimenter, oser s’entourer de profils atypiques et avoir une obsession : apporter la juste valeur.

Aneo, une organisation à part entière !  - Aneo

Qui êtes-vous ?

Vous êtes pour

Votre secteur

1 seul choix possible
Assurance & Protection sociale
Banque et Finance
Industrie & Services
Santé

Vos besoins

Plusieurs choix possibles
IT & Digital
Transformation des Organisations
Stratégie Business
Pilotage de projets

Détails

Des précisions à ajouter sur votre projet ? (facultatif)
C'est noté !
Nous avons pris en compte les spécificités de votre projet.
Nos équipes vous contacteront sous 48h pour en discuter plus amplement.
Votre prénom *
Votre nom *
Votre adresse email pro *
Votre numéro de téléphone *
Bien reçu !
Nos équipes vous contacteront sous peu
pour discuter de votre projet.

Anne-Céline Laprelle

Les Femmes et le Numérique : une histoire de « Je t’aime, moi non plus … »

Cet article sur les Femmes et le Numérique fait partie de la série sur le thème « Numérique et RSE ». Ils sont publiés par une équipe de consultants Aneo.

Ada Lovelace, la pionnière ayant créé la machine analytique… Grace Hopper, « the Queen of software » témoin du premier « bug » informatique… Margaret Hamilton, la Femme dont le code informatique a envoyé l’Homme sur la Lune … ou encore Roberta Williams, la « Gameuse » ayant créé le design du premier jeu d’aventure graphique …

La liste est longue de femmes impressionnantes qui ont façonné l’Histoire de l’Informatique. Les pionniers ont en effet été des pionnières… Dans les années 1960, elles représentaient près de la moitié des effectifs travaillants dans l’informatique. Et en 1978, les femmes constituaient la moitié des effectifs étudiant en sciences de l’informatique… Or, peu à peu, au fil des années où ce domaine d’activités a pris de l’importance et du prestige, les femmes ont perdu du terrain face au public masculin.

S’agit-il d’une dérive inévitable ? Ou bien à l’avenir les femmes pourront-elles retrouver le devant de la scène numérique ?

Le monde Numérique est-il devenu un no-women’s land ?

La Commission Européenne publie chaque année un indicateur mesurant la présence des femmes dans l’économie numérique (Women In Digital scoreboard). Leur tableau de bord évalue les performances des États membres dans les domaines de l’utilisation d’Internet, des compétences des utilisateurs d’Internet ainsi que des compétences spécialisées et de l’emploi, sur la base de 12 indicateurs.

Selon les données 2020[1], les femmes sont moins susceptibles que les hommes d’avoir des compétences numériques spécialisées et de travailler dans ce domaine, car seuls 18% des spécialistes des Technologies de l’information et de la communication (TIC) dans l’UE sont des femmes. En France ce chiffre s’élève à 21%.

Et qu’en est-il de la présence des Femmes dans l’entreprenariat numérique aujourd’hui ? Les Femmes et les Hommes sont-ils sur un pied d’égalité concernant l’accès aux financements pour monter une start-up dans le Numérique ?

Le récent baromètre sur les conditions d’accès au financement des femmes dirigeantes de startups, publié par SISTA/CNNum/BCG, montre qu’en 2020 en France, les startups fondées par des femmes ou équipes dirigeantes mixtes ont représenté seulement 21% du total. La hausse de 4 points par rapport à 2019 donne un certain espoir. Toutefois, ce résultat nous montre qu’aujourd’hui, les hommes dominent largement l’univers des startups. De même, au niveau du financement, en 2020 les investisseurs se tournent majoritairement vers les équipes masculines, puisque celles-ci représentent 85% des start-up financées.

Et pourtant, investir dans une startup co-fondée par des femmes assure de belles perspectives en termes de résultats : le cabinet BCG note qu’en termes de retour sur investissement (ROI), pour un dollar investi, les fonds récupéreraient 0,78 centimes pour une startup féminine ou mixte contre 0,32 centimes pour une startup masculine[2].

Un traitement médiatique inégal ayant une incidence sur les vocations des Femmes 

La réalité est donc bien celle d’une sous-représentation des femmes dans le Numérique. Minoritaires certes, mais pas inexistantes. Pour lutter contre ce déficit de femmes, de nombreuses associations, fondations et autres collectifs ont été créés afin de mettre en avant ou promouvoir la place des femmes dans le monde du Numérique. C’est le cas notamment de « JFD »: la Journée de la Femme Digitale. Cette dernière, co-fondée par Delphine Remy-Boutang, se présente comme un « accélérateur de croissance ». En avril dernier, JFD a publié avec Madame Figaro l’édition 2021 des entrepreneuses du Numérique « qui s’engagent pour les nouvelles générations », braquant le projecteur sur huit entrepreneuses du Numérique.

Les chiffres montrent que les femmes sont encore trop minoritaires par rapport aux hommes dans le numérique. Pourtant, le problème n’est pas tant celui de l’absence des ces dernières dans l’IT, ou d’un désintérêt de leur part… Il s’agit plutôt d’un manque de visibilité de ces entrepreneuses.

Un manque de visibilité des femmes dans le numérique

Les médias ont en effet une responsabilité dans le traitement qui est fait de la présence féminine dans le secteur du numérique. On se souvient par exemple de la levée de boucliers provoquée par la Une du magazine Capital en 2017. En effet, cette dernière était consacrée aux créateurs de start-up de l’IT française qui s’exportent… Problème : dans le panel des dirigeants mentionnés, aucune femme n’y figurait ! En réaction à cela, une tribune avait été publiée[3] par un collectif d’entrepreneuses françaises du numérique pour mettre en avant leur réussite toute aussi retentissante que celle de leurs homologues masculins.

Cette couverture médiatique très lacunaire entraîne par voie de conséquence une méconnaissance des personnalités pouvant être inspirantes et susciter des vocations… En d’autres termes, pour séduire les femmes, le Numérique aurait besoin de mettre en avant quelques modèles de réussites. Or, on l’a vu, ces modèles de réussites au féminin existent évidemment. Tout est question de mise en avant à bon escient. Certains diront qu’il devrait même être question ici de « discrimination positive ». Car le fait est que, s’il y a moins de femmes dans le Numérique aujourd’hui, c’est avant tout dû à un manque de vocations à la base…

Les femmes seraient-elles moins propices à embrasser une carrière dans le Numérique ? C’est bien contre ce préjugé que des associations comme « Femmes Numériques » se démènent pour inverser la tendance.

Le Numérique aurait-il moins la cote auprès des femmes étudiantes ?

Car le « problème », si problème il y a, il faut le prendre à la racine… au moment où les jeunes femmes étudiantes se dirigent vers leur choix de carrière. Au sein de l’UE, la tendance constatée est bien que la filière du Numérique attire moins les femmes que les hommes. Selon la Commission Européenne, en 2015, parmi les femmes diplômées, seulement 25% l’ont été dans les filières du Numérique. Par ailleurs, seules 13% de ces diplômées travailleraient aujourd’hui dans le secteur du Numérique. Selon cette même étude, en France, en dix ans, le pourcentage de filles dans les filières scientifiques et techniques n’a augmenté que de deux points.

En la rentrée 2019 en première générale, selon les chiffres du Ministère de l’Education Nationale[4], la spécialité « Numérique et Sciences Informatiques » a été choisie par 2,6% de l’ensemble des filles, contre 15,2% pour les garçons. Alors que les matières sur lesquelles les filles sont le plus majoritaires, à 85%, sont les « humanités, littérature et philosophie, langues, SES ».

femme étudiante numérique

Or ce manque de vocations des femmes vers les filières d’éducation aux métiers du Numérique est-il inéluctable ?

Comme en témoigne Isabelle Collet dans son livre Les Oubliées du Numérique (2019), une étude réalisée en Malaisie au début des années 2000 à la Faculté d’Informatique de Kuala Lumpur, par la chercheuse norvégienne Vivian Lagesen, est assez éclairante. Dans cette institution, tous les responsables de départements ainsi que la doyenne sont des femmes. De même dans l’état de Penang, le nombre d’étudiantes en informatiques s’élève à 65%. De plus, 70% des professeurs en informatique sont des femmes, ainsi que la doyenne de la Faculté. A la même époque, en France, le nombre des femmes dans les écoles d’ingénieurs en informatique s’élevait péniblement à 10%. Comme le précise Isabelle Collet, la chercheuse parle, non sans humour de la réalisation d’une utopie cyber-féministe !

Comment expliquer alors ces résultats si encourageants ?

Les raisons seraient à la fois politiques et culturelles. En Malaisie, depuis les années 70, le gouvernement a mis en place des lois pour encourager l’accès et la participation des femmes à l’éducation, à la science et aux technologies[5]. Par ailleurs, toujours selon l’étude de Vivian Lagesen, lorsque l’on questionne les étudiantes en informatique malaises sur leur choix de carrière, elles évoquent des raisons culturelles : selon elles, l’informatique n’est pas un travail de force et il peut être exercé de chez soi, ce qui est compatible avec une vie de mère de famille[6].

“Les amazones du Numérique” : ces femmes seront-elles de retour ?

femmes numérique amazonesEn Europe, différentes raisons expliquent le déficit des femmes dans le Numérique. Les plus souvent citées sont la persistance des préjugés de genre, l’autocensure des femmes elles-mêmes et surtout le fameux « plafond de verre ». En effet, ce dernier existe dans tous les secteurs et freine la progression des femmes aux postes à responsabilités.

Pourtant, une étude publiée en 2011 dans Harvard Business Review[7] indiquerait que les groupes majoritairement composés par des femmes seraient manifestement plus intelligents que les autres ! Le Professeur Michael Ferrary a étudié la féminisation des entreprises françaises via un portefeuille composé de 15 entreprises du CAC40. Leur hiérarchie est féminisée à au moins 35%, et sur des secteurs très diversifiés. Il est possible de citer le Luxe, la Communication, la Santé et la Finance. Il a étudié ce portefeuille de valeurs sur une durée de 10 ans, entre 2006 et 2016.

Qu’a-t-il constaté ? Ce portefeuille « féminisé » a gagné 60% en valeur. Et ce, indépendamment du contexte, alors que la valeur du CAC 40 dans son entièreté perdait 4%. D’autres études ont été réalisées sur une centaine d’entreprises en Espagne, en Chine, au Danemark ou encore aux Etats-Unis. Celles-ci tendraient à démontrer que les entreprises féminines sont plus innovantes en termes de Produits et de Management. En effet, la féminisation encouragerait un supplément d’intelligence collective par l’intelligence émotionnelle, exprimée par une capacité d’écoute, d’empathie et de respect des contributions des autres.

Dans le Numérique comme ailleurs, les Femmes ont donc toutes leur rôle à jouer afin d’écrire l’Histoire à venir. Cela nous permettrait ainsi d’exploiter au mieux notre potentiel d’intelligence collective…

 

Un article rédigé par :

radostina coach agile

 

Radostina KOSTOVA 

Coach Agile

 

 

Pierre Idiart Senior Consultant

 

Pierre IDIART

Senior Consultant

 

 

Sources :

[1] https://digital-strategy.ec.europa.eu/en/library/country-reports-women-digital-scoreboard

[2] https://www.bcg.com/publications/2018/why-women-owned-startups-are-better-bet

[3] https://www.frenchweb.fr/un-oubli-capital/301692

[4] https://www.education.gouv.fr/choix-de-trois-specialites-en-premiere-generale-la-rentree-2019-15-combinaisons-pour-80-des-eleves-3245

[5] https://www.latribune.fr/actualites/economie/international/20110707trib000634787/les-femmes-bientot-plus-puissantes-en-malaisie-.html

[6] Les Oubliées du Numérique, d’Isabelle Collet (Editions Le Passeur, 2019)

[7] Supercollectif : la nouvelle puissance de nos intelligences, Emile Servan – Schreiber (Editions Fayard, 2018)

 


[REX] Comment réinsuffler une vision produit au sein d’une équipe de delivery ?

Quand il est question de la survie d’une équipe, le premier réflexe est de penser réduction des coûts, avant d’envisager une éventuelle dissolution. Pourtant, remettre les utilisateurs au coeur de la stratégie d’une équipe peut lui être salutaire.

« L’équipe Automation Apps Factory a su se positionner en véritable partenaire lors de la mise en place de la démarche DEVOPS à la GRC » Responsable de la démarche DevOps de la GRC

D’une équipe au bord de la dissolution en début de mission, elle est devenue un acteur majeur dans la mise en place de la démarche DevOps dans l’entité. Comment l’accompagnement par Aneo a-t-il permis une telle transformation ? Baptiste Macé, Consultant DevOps chez Aneo, nous l’explique dans ce retour d’expérience.

Le cadre de la mission

Une entité orientée vers l’efficacité opérationnelle du groupe

L’entité GTS (Global Services Technologies) de la Société Générale est le centre de services dédié à la gestion de l’infrastructure informatique de toutes les filiales et entités du groupe.

Son ambition est de fournir un système d’information homogène à toute l’entreprise. Un objectif qui passe notamment par la mise en place d’un cloud commun, tout en garantissant une efficacité opérationnelle et une réduction des coûts.

Au sein de celle-ci, existe l’entité RCR : Retail Customer Relationships, qui fournit des services packagés aux autres départements du groupe. il a accompagné l’équipe Apps Automation Factory. Celle-ci avait 2 rôles principaux :

  • Maintien en conditions opérationnelles/de sécurité des instances Ansible Tower et AWX.
  • L’accompagnement d’une équipe de développement vers l’automatisation.

L’équipe accompagnée

Dans ce cadre, nous sommes intervenus auprès d’une équipe de 9 personnes au bord de la dissolution qui rencontrait les difficultés suivantes : manque d’implication des équipes, incompréhension des enjeux, et une organisation inexistante (agile défaillant).

Toutefois, cette équipe possédait certaines forces sur lesquelles il fallait capitaliser : un Tech Lead solide, un Product Owner très impliqué, et un Management ayant envie d’aller de l’avant.

Pour vous présenter cette mission, nous allons utiliser l’image d’un pompier qui aiderait une équipe à éteindre un feu et qui l’accompagnerait ensuite dans la reconstruction.

éteindre feu pompier

Accompagner l’équipe dans sa reconstruction en 5 étapes

1.       Eteindre le feu – La migration des applications cruciales

Fin 2019 – Avril 2020

Une migration vitale d’Ansible Tower vers Ansible AWX devait être mise en place pour permettre la pérennité de certaines applications cruciales.

En effet, les licences arrivant à terme, l’ensemble des 300 applications utilisant Ansible Tower à la Société Générale risquaient de ne plus pouvoir livrer en production à la fin de l’année.

L’équipe tentait de migrer l’ensemble des données de l’ancienne version vers la nouvelle, pourtant sans succès. Nous avons finalement évité cet écueil en priorisant les applications par leur criticité. Nous les avons fait migrer une par une, en s’appuyant sur les préceptes agiles.

2.      Retirer les gravats – Déconstruire les mauvaises habitudes

Avril 2020 – Octobre 2020

L’équipe organisait l’avancement de son travail autour d’un daily matinal, lors duquel les objectifs changeaient quotidiennement.

Ainsi, nous avons travaillé sur la vision avec l’équipe et le Management pour définir des objectifs partagés. Nous avons changé un certain nombre d’habitudes :

  • Méthode Scrum. Nous l’avons remis en place et réexpliquée avec des itérations, ayant chacune un but et un livrable.
  • Fail fast. Nous avons expliqué ses préceptes, en enterrant certains projets à faible valeur ajoutée. Et ce, malgré leur état d’avancement.
  • Nous sommes passés d’une automatisation logiciel rigide des applications à une mise en autonomie des équipes par la formation et le coaching (diminution du support)

reconstruction

3.      Reconstruire des bases solides – La simplification des usages via le développement d’un portail

Mars 2021 – Octobre 2021

Seules les plus grosses applications avaient un budget pour être accompagnées sous Ansible AWX. Pour les plus petites, nous avons souhaité agir de manière différente. C’est pourquoi nous avons développé un portail web d’onboarding.

En effet, celui-ci était constitué d’une interface user-friendly permettant de simplifier les usages sous AWX. La plateforme était ainsi plus adaptée aux développeurs. Elle contenait également moins d’informations.

Afin de parvenir à la création de ce portail, il a fallu engager l’ensemble du management. Il a également fallu faire intervenir un coach agile. Au programme : MVP et story Mapping.

 

4.    Finir la reconstruction – L’ultime migration sous le cloud SG

Juillet 2021 – en cours

La migration sous Ansible AWX a entraîné une réduction considérable des coûts (prix des licences et rationalisation des ressources). Toutefois, nous souhaitions aller plus loin. Nous avons donc accompagné notre client à migrer ses applications sur le cloud de la Société Générale.

Plusieurs bénéfices à la clé :

  • Un gain de temps indéniable, pas besoin de MCO (Maintien en Conditions Opérationnelles) sur les infrastructures et middlewares.
  • Plus de scalabilité. Le nombre d’usagers de la plateforme augmentant, il faut adapter les performances à l’usage.

En parallèle, les méthodologies de travail et la problématique autour de la vision produit étant résolues, il a donc fallu s’attaquer à la partie plus technique. C’est ainsi que des reviews de code hebdomadaires, du pair programming, et la généralisation du DevOps furent mis en place au sein de l’équipe.

5.      Faire le bilan et raconter son histoire !

Aujourd’hui, l’équipe n’a plus rien à prouver pour exister. Par ailleurs, ses membres sont régulièrement sollicités pour accompagner d’autres équipes qui rencontrent les mêmes difficultés.

 

Un retour d’expérience par

baptiste

Baptiste Macé

Consultant DevOps chez Aneo


Conférence 28/09 : On Premise to Cloud Modernisation

L’événement dans sa globalité

Le Cloud gagne en adhérence sur tous les types de marché du plus ouvert au plus régulé : que ce soit pour profiter de son potentiel d’innovation, sa flexibilité ou sa simplicité. Les data centers « on premise » (lorsque l’infrastructure IT est hébergée dans les propres locaux de l’entreprise) apportent un certain contrôle et accès aux ressources. Cependant, ils viennent également avec leur lot de difficultés, qui pèsent de plus en plu sur les équipes IT et sur les utilisateurs de ces ressources.

Aneo, Google Cloud France et AMD vous proposent des retours d’expériences de migrations du on-premise vers le cloud, le jeudi 28 septembre dans un événement phygital.

Focus sur la conférence animée par Aneo : le calcul parallélisable en finance

Le calcul parallélisable est devenu un outil incontournable en finance. La capacité d’analyser des quantités massives de données en parallèle et en temps quasi réel dépasse les capacités du processeur à cœur unique (CPU) le plus rapide. Cette conférence est animée par Wilfried Kirschenmann, Directeur R&D chez Aneo, Tony Carnal, Customer Engineer Infrastructure Modernization chez Google Cloud, et Jean-Claude Bernard, Cloud Solution Sales Southern EMEA chez AMD.

Vous pouvez participer à l’événement dans sa globalité en présentiel de 9h30 à 13h, ou uniquement à la conférence en ligne de 11h à 12h. Pour vous inscrire, cliquez ici.

 


Conférence 23/09 : de l’idée à la solution industrielle sur Microsoft Azure

Découvrez le retour d’expérience Aneo – Microsoft Azure sur un cas concret faisant appel à du calcul haute performance lors d’une conférence inédite.

Au programme :

  • les différentes étapes d’étude, prototypage, optimisation et calcul du projet
  • une démonstration d’Azure Cycle Cloud et de l’interface utilisateur développée par Aneo.
  • le bilan des apprentissage et recommandation pour la mise en œuvre de votre projet HPC avec Aneo sur Azure.

Une conférence animée par Damien Dubuc, Expert HPC chez Aneo, Boris de Lastours, Azure Product Manager, et Alexandre Jean, HPC AI Solution Specialist chez Microsoft Azure.

Pour vous inscrire, cliquez ici.


Tech Intelligence #6 – Développement du numérique en Afrique : où en est-on ?

La série Tech Intelligence explore des sujets variés de la tech : cloud, cybersécurité, blockchain … Aujourd’hui, découvrez un rapide coup d’oeil sur le développement du numérique sur le continent africain. Cliquez ici pour retrouver les autres sujets traités par Tech Intelligence. 

Tout miser sur la téléphonie : une stratégie payante pour le développement du numérique en Afrique ?

afrique numérique

En 2020, le nombre d’utilisateurs de mobiles en Afrique est estimé à plus de 700 millions sur tout le continent. Cependant, ce n’est pas une réalité équivalente sur tout le continent : le nombre d’abonnés mobile en 2017 pour 100 habitants diffère selon les continents. Il est très élevé dans les pays du Maghreb, de l’Afrique de l’Ouest et du Sud. Il reste toutefois très bas en ce qui concerne l’Afrique central et de l’Est.

Ce qu’il faut comprendre c’est que le réseau mobile est le premier moyen d’accès à Internet en Afrique. Plus de la moitié des connexions sont faites grâce à la téléphonie mobile. Et nombreuses sont les entreprises qui capitalisent sur ce phénomène.

 

Des leaders Africains du numérique ?

Les leaders dans le domaine du numérique et de la téléphonie ne changent pas d’un continent à l’autre.

Prenons l’exemple de Jumia, leader des sites e-commerces, présent dans une majeure partie du continent, à l’instar d’un Amazon. L’entreprise a créé un lieu de rencontre numérique entre l’offre et la demande et propose aussi des services de logistique et de moyens de paiement (paiement par SMS par exemple).

Seulement, cette dernière s’est créée à Berlin par des français, son siège technique est au Portugal et ses capitaux sont principalement occidentaux.

C’est un fait, les leaders économiques du continent Africains sont étrangers. S’il l’on regarde dans la téléphonie mobile, le leader MTN, un opérateur Sud-Africain, se retrouve très souvent en concurrence avec des opérateurs européens (Orange ou Vodafone).

Cette tendance est également observable dans l’installation des antennes de communications. Avec une particularité supplémentaire, puisque l’on retrouve également des entreprises chinoises telles que Huawei ou ZTE.

Toutefois, cette prédominance des étrangers sur le marché du numérique africain peut rapidement évoluer. En effet, de nombreux pays adoptent des politiques publiques afin de créer des clusters du numérique dans l’espoir de faire émerger des entreprises 100% africaines.

Les grands clusters du numérique africain

Associant capitaux privés et publics, de nombreuses zones économiques ont fait leur apparition dans certains pays africains. En coopération évidente avec des entreprises américaines, européennes et chinoises.

Quelques exemples :

  • Au Maroc : le cluster E-madina. E-Medina a été créée en 2013 à Casablanca, ce cluster d’entreprise et de services public à pour vocation d’être une «smart-city », un écosystème reliant de nombreuse entreprise de différents secteurs afin de renforcer les synergies.
  • Au Ghana : le centre de recherche sur l’IA de Google. Avec l’association des entreprises numériques, Google a ouvert à Accra son centre de R&D sur l’IA. Une démarche qui fait suite à la création en 2012 de l’institut africain pour les mathématiques en coopération avec BlackBerry et MasterCard. Ce centre se focalise sur les algorithmes d’anticipation météorologique et sur la détection de maladies car de nombreux PIB africains dépendent de l’Agriculture.
  • Au Kenya : Konza Technopolis. Il s’agit d’un pôle numérique qui regroupe les géants du numérique : GAFAM, IBM, Nokia, Samsung … Autrement appelé la Silicon Savanah, ce pôle a fait naître 250 startups, des universités et des incubateurs. C’est par la présence des géants étrangers que de nombreux entrepreneurs africains viennent se greffer pour profiter des opportunités créées.
  • Au Nigeria : Yabacon Valley. On retrouve à Lagos, la ville aux 22 millions d’habitants, un cluster similaire à celui du Kenya. C’est par l’installation des GAFAM et autres géants du numérique que de nombreuses startups ont vu le jour. Les grands groupes attirent les personnes qualifiées qui derrière décident de se lancer dans l’aventure de l’entreprenariat. C’est le cas de l’entreprise Jobberman, le plus grand site internet pour trouver un emploi en Afrique subsaharienne.

C’est souvent le long des côtes atlantiques qu’apparaissent des clusters du numérique. Cela s’explique par l’arrivée des câbles sous-marins du réseau internet mondial. Les entreprises du numérique s’installent au plus près de l’accès à l’information.

A Cotonou au Bénin, la ville accueille la Smart City béninoise car elle se trouve très proche de l’arrivée des câbles.

Le numérique comme accélérateur de croissance en Afrique

Selon Rima Le Coguic, Responsable de la Division Transport, Télécoms et Énergie Durable à l’Agence française de développement (AFD), « l’innovation numérique permet de faire sauter des étapes aux trajectoires de développement de l’Afrique en renforçant l’inclusion sociale et financière et en devenant un moteur de croissance et d’emploi ».

En effet, l’Afrique s’est d’abord concentrée sur la construction d’un réseau téléphonique mobile et non fixe. Cela facilite ainsi les connexions entre les particuliers tout en renforçant la mobilité de ces dernières.

Le numérique se retrouve aussi dans les politiques publiques d’éducation à travers le e-learning. Par exemple, l’Africa Code Week a permis en 2016 d’apprendre à 426 000 jeunes de 30 pays africains les bases de la programmation. C’est en ciblant une jeunesse de plus en plus grandissante que l’Afrique pourra changer la nature de ses problèmes.

Il est aussi un remède à la fébrilité du système bancaire. De nombreuses entreprises se sont créées autour des paiements en ligne et par la téléphonie. L’exemple du Mobile Money en est la preuve. En effet, MTN mobile money, Orange money, Moov money, Airtel mobile money, etc. offrent la capacité de lier son numéro de téléphone à son compte bancaire pour procéder à des paiements.

Ces efforts portent leurs fruits puisque l’on estime à 550 millions de dollars la somme levée par des jeunes startups africaines en 2017.

Le numérique en Afrique : un secteur qui subit des freins

Pour relier la population africaine et accélérer les opportunités liées au numériques, les pays n’ont pas d’autres choix que de faire appel aux capitaux et à l’expertise des puissances étrangères pour construire les réseaux de téléphonie, installer des antennes 4G ou déployer la fibre optique sur le continent.

Les pays africains doivent s’endetter et le risque d’insolvabilité (dû à l’instabilité politique et la volatilité des prix des matières premières) ralentit les investissements dans ce domaine. Parallèlement la Chine (premier partenaire commercial de l’Afrique) mène depuis 10 ans une politique d’investissement massif sur le continent. Récemment, le Sénégal a inauguré un projet de data center à Diamniadio en coopération avec Huawei.


5 solutions pour maîtriser la consommation énergétique des data centers – Entreprise, Numérique et bien commun #3

Cet article sur la consommation énergétique des data centers fait partie de la série sur le thème « Entreprises, Numérique et Bien Commun ». Ils sont publiés par une équipe de consultants Aneo.

Optimiser la consommation des data centers : un intérêt à la fois écologique et économique

On estime la consommation énergétique mondiale des équipements informatiques à 2.7% de la consommation énergétique totale en 2017. Il est prévu qu’elle représente jusqu’à entre 4.7% et 6% de la consommation total en 2025. Ce sont les estimations reportées dans le document de travail : Maîtriser la consommation du numérique. A la vue de cette progression, la maitrise de leur consommation est donc un enjeu environnemental important. Les grands centres de données (data centers) concentrent une part importante de cette consommation, de l’ordre de 30% d’après cet article de CNRS Le journal.  Il est donc intéressant de considérer les pistes qui permettent de réduire leur consommation en intervenant à l’échelle des centres de données, des logiciels et sur les combinaisons matériel/logiciel.

La question de la consommation des équipements numériques est abordée depuis longtemps. En effet, bien avant que la problématique de l’empreinte environnementale du numérique ne soit devenue un sujet d’actualité grand public. En effet, au-delà de la sobriété énergétique, il existe d’autres raisons pour lesquelles il est intéressant d’optimiser la consommation :

  • La densité : réduire la consommation permet de limiter la chaleur produite par les machines. Cela permet donc de concentrer plus de fonctionnalités et de puissance de calcul dans un même espace.
  • La puissance : parfois la puissance de calcul d’un grand centre de données est contrainte par la puissance au niveau de l’alimentation par le réseau électrique. Ainsi la réduction de la consommation unitaire par machine permet d’avoir plus de machines à iso-puissance d’alimentation.
  • Les coûts : pour des équipements qui consomment beaucoup d’énergie, la punition est double. En effet, il faut payer à la fois l’énergie consommée et le système de refroidissement. Dans les grands centres de données, une étude de l’Association technique énergie environnement (ATEE) estime à 50% la part de la consommation énergétique pour le fonctionnement des équipements IT et à 40% la part de la consommation des systèmes de refroidissements. Réduire la consommation permet de réduire les coûts sur les deux tableaux.
  • L’autonomie : pour les équipements qui fonctionnent sur batterie, une consommation plus faible permet automatiquement une meilleure autonomie.

Optimiser la consommation des équipements permet ainsi de combiner logiques économiques et préoccupations environnementales. Voici donc 5 solutions d’optimisation de la consommation des centres de données.

Solution 1 : Eteindre les machines non utilisées pour optimiser la consommation des data centers

Aucun texte alternatif pour cette image

Les centres de données sont dimensionnés pour pouvoir supporter la charge maximale à laquelle ils pourraient être soumis lors d’un pic d’activité. Mais les pics de charges sont occasionnels et pendant la majeure partie du temps les machines sont sous-exploitées.

L’exemple d’un service de streaming vidéo illustre bien le propos. Les utilisateurs l’utilisent principalement en fin de journée et beaucoup moins pendant la journée. L’étude de l’ATEE estime que les centres de données sont majoritairement utilisés entre 40% et 60% de leur capacité, on estime que le taux d’utilisation des infrastructures réseaux sont du même ordre (entre 30% et 60%). Lorsque que ces machines ne sont pas utilisées, elles consomment malgré tout de l’énergie.

D’après le rapport de thèse “Data centers energy optimization”, la consommation au repos d’un serveur est d’environ 65% de sa consommation maximale, c’est la quantité d’énergie consommé pour rien lorsqu’une machine n’est pas utilisée. Un serveur au repos peut donc consommer beaucoup d’énergie pour ne rien faire.

La solution la plus évidente serait simplement d’éteindre les machines non utilisées … Simplement ? Ces manipulations impliquent des centaines voire des milliers de machines. Il faut par ailleurs être capable de les rallumer à temps lorsqu’il y en a à nouveau besoin. Lorsqu’une stratégie d’extinction/rallumage des machines est mise en œuvre, la qualité du service (QOS) est dégradée, en effet lorsque le besoin en machine augmente, il faut attendre un certain temps pour qu’elles soient rallumées et disponibles.

Il y a alors une décision à prendre. Il faut tenir compte d’une part, de la dégradation acceptable du QOS. D’autre part, des économies d’énergie rendues possibles par un tel sacrifice. Plusieurs travaux abordent le problème, dont la thèse précédemment citée, et proposent des méthodes pour éteindre et rallumer les machines tout en impactant le moins possible les services fournis par les machines. Le potentiel de réduction de la consommation est de l’ordre de 40%.

Solution 2 : Mutualiser l’utilisation des machines 

Une deuxième solution consiste à « lisser la courbe »- pas celle de l’engorgement des hôpitaux, mais celle de l’utilisation des machines. Que faire de tout ce matériel lorsqu’on ne l’utilise pas ? Le partager avec un autre business qui présente un pic de charge à un autre moment que le soir.

Cette mutualisation des machines peut être faite à deux niveaux. Au niveau d’une entreprise disposant d’un centre de données privé, lorsqu’elle lance un nouveau service ou application, elle a intérêt à se poser la question suivante : ce nouveau service ou application peut-il être exécuté à des moments où mes machines ne sont pas beaucoup sollicitées – par exemple pendant la nuit ou le week-end ? Si cela est possible sans dégrader la qualité du service rendu aux utilisateurs, alors il est possible de fournir le nouveau service sans augmenter la capacité des infrastructures informatiques.

Au niveau inter-entreprises, il s’agit d’avoir recours au cloud. En proposant les ressources à la demande, le cloud permet de mutualiser les ressources informatiques. Une étude de l’usage du cloud publié en 2017 montre que la mutualisation des ressources via le cloud permet d’avoir un taux d’utilisation des machines physiques relativement constant : pour une région qui regroupe plusieurs centaines d’utilisateurs, la variabilité de l’utilisation en fonction du temps est relativement faible.

Solution 3 :  Investir dans la qualité du code 

Aucun texte alternatif pour cette image

 

Utiliser les machines autant que possible, est-ce suffisant ? Si le logiciel qui s’exécute sur les machines n’est pas efficace, l’objectif d’optimisation de la consommation n’est pas atteint. Ce qui nous amène à une nouvelle piste : l’optimisation des logiciels.

Chaque logiciel doit répondre à des critères de performance. Par exemple, le temps à attendre pour avoir le résultat ou bien l’espace de stockage requis. Lorsqu’il s’agit d’améliorer la performance d’un logiciel (par exemple, recevoir un résultat plus rapidement) deux solutions sont possibles. Soit on investit dans le matériel, soit on investit dans la qualité du code. Alors quelle solution privilégier ? Si le seul critère de décision est le coût, il est probable que l’entreprise s’orientera vers des investissements au niveau du matériel. Si en revanche l’entreprise veut prendre aussi en considération le critère environnemental, l’option d’investir dans la qualité du développement devient plus intéressante.

On pourrait objecter à cette approche que les optimisations au niveau du code permettent certes de mieux exploiter les ressources pour exécuter les instructions logicielles plus rapidement, mais que ceci augmente en général la consommation instantanée des puces. D’une part, il y a une réduction de la consommation dû au fait que la machine est sollicitée pendant une plus courte période. D’autre part il y a une augmentation de la consommation dû au fait que la machine est sollicitée de manière plus intense.

Deux études, l’une de l’Université d’Orléans et la seconde avec la participation de l’Université de Dortmund montrent qu’en réalité que dans toutes les situations testées, la réduction est plus importante que l’augmentation : l’optimisation du code permet donc de réaliser des économies d’énergie.  Il est également intéressant de remarquer que dans l’étude de l’Université d’Orléans certaines optimisations n’affectent pas les performances, mais seulement la consommation énergétique : optimiser la consommation ne nécessite donc pas forcément des sacrifices côté performance.

Il reste cependant quelques freins à lever pour généraliser l’optimisation du code à des fins de maîtrise de la consommation d’énergie. Premièrement, au niveau des outils. Les outils de développement dédiés à l’optimisation des performances sont variés et plutôt matures. Cependant, les outils dédiés à l’étude de la consommation sont eux moins disponibles. Deuxièmement, au niveau culturel. En plus des outils, cela demande une évolution de la culture. Aussi bien côté métier que côté IT, pour tenir compte de l’efficacité énergétique au même titre que des performances.

Solution 4 :  avoir recours à des accélérateurs (composants spécialisés par application) 

Jusque-là les aspects matériels et logiciel sont abordés séparément, ce qui met de côté toute une classe d’optimisations pour les performances et la consommation. Au prix d’une complexité supplémentaire, il est possible de concevoir un service en considérant le matériel et le logiciel simultanément pour ouvrir le champ de possibilités.

Le Green500 est un classement des meilleurs calculateurs du monde établi sur la base de l’efficacité énergétique. Il a été introduit comme alternative au classement Top500, qui lui s’intéresse uniquement à la puissance de calcul brute, sans tenir compte de la consommation énergétique. Chose non surprenante, on retrouve en tête de chacun des deux classements des machines récentes :  les technologies les plus récentes permettent à la fois une puissance de calcul brut plus grande et une meilleure efficacité énergétique.

En se focalisant sur le Green500, on constate que le haut du classement se compose principalement de machines avec accélérateurs. Les accélérateurs sont des composants spécialement conçus pour un type d’applications spécifiques en opposition aux composants généralistes. Les exemples les plus courants sont les General Purpose Graphical Processing Unit (GPGPU), conçus pour les applications massivement parallélisables. Concevoir une puce pour une catégorie spécifique de cas d’usage permet de faire des optimisations sur quasiment tous les plans : puissance brute, efficacité énergétique ou densité.

Mais alors, pourquoi ne pas systématiquement utiliser ces accélérateurs ? Le fait est qu’ils exigent du temps et des compétences particulières pour les mettre en œuvre. Utiliser un accélérateur demande souvent de réécrire les logiciels en grande partie et ceci par des développeurs spécialisés. Cela constitue donc un coût important en ressources humaines.

Mais avant même de porter les logiciels, il faut d’abord que ces accélérateurs existent ! Certaines entreprises ont les capacités de concevoir et de produire des puces spécialisées pour leurs besoins, par exemple Google avec les TPU. D’autres entreprises n’en ont pas les capacités et n’ont accès qu’aux puces produites par d’autres.

Ces dernières ne sont pas forcément adaptées à leurs besoins. Cela ne signifie pas que tout est perdu. Il est parfois possible réutiliser les puces spécialisées avec un peu d’astuce pour un cas d’usage différent tout en profitant de leur efficacité. C’est ainsi par exemple que des composants conçus au départ pour des applications graphiques sont aujourd’hui utilisés dans les industries bancaire, aéronautique, du bâtiment et dans la recherche scientifique.

Cette piste d’optimisation par le recours à des accélérateurs dépendra donc en partie du secteur d’activité de l’entreprise. Elle dépendra également de sa disponibilité à investir dans des développeurs hautement spécialisés.

Solution 5. La sobriété 

consommation data centers

Après avoir veillé à correctement exploiter le matériel, avoir optimisé les applications et conçu matériel et logiciel ensemble, il reste encore un levier d’action essentiel pour contrôler la consommation : la sobriété.

Rouler un peu moins vite en voiture permet de réduire considérablement la consommation de carburant : Un article du site Caradisiac calcul qu’en passant de 130 à 110km/h, il est possible de baisser de 25% la consommation. La consommation n’est pas proportionnelle à la vitesse, les quelques minutes de gagnés coûtent cher en énergie. Il en va de même pour les appareils informatiques. Des tests chez un de nos clients montrent qu’une réduction de 4% des performances peut s’accompagner d’une réduction de 30% de la consommation. D’autres tests menés à L’Université de l’état de Caroline du nord montrent d’autres exemples avec une réduction de 20% de la consommation au prix d’une perte de seulement 6% des performances pour l’une des applications testées. En somme, une faible perte de performances en contrepartie d’un gain significatif d’énergie.

D’où vient cette économie d’énergie ? Plusieurs mécanismes sont en jeux. L’un des principaux est le suivant : les machines sont composées de plusieurs parties. Processeur, mémoire vive, stockage, interconnections avec d’autres machines etc.. Il y a toujours un de ces composants qui se trouve être le goulot d’étranglement pour les performances de l’application. Les autres composant sont donc sous-utilisés et consomment de l’énergie inutilement. Ces derniers peuvent donc être bridés pour s’aligner sur les performances du composant le plus faible. Ceci avec un faible impact sur les performances. Le défi est alors d’être capable d’analyser les applications au cas par cas. Cela permet de reconnaître les goulots d’étranglements et mettre en œuvre les bridages.

Enfin, nos applications ont-elles vraiment besoin d’aller le plus vite possible ? Prenons l’exemple d’un cas d’usage qui nécessite de rendre le résultat d’un calcul pour une date butoir précise. Il n’y a pas d’avantage à terminer le calcul plus tôt. Il est donc possible de réduire les performances des machines pour réduire leur consommation sans compromis sur les exigences du métier. Les deux principaux enjeux sont alors :

  • de définir des objectifs de performances en fonction des contraintes du métier.
  • de bien maîtriser les performances de l’application afin d’avoir des temps d’exécutions prédictibles et répétable.

Conclusions 

La consommation des équipements IT devient de plus en plus importante et demande à être maîtrisée. Il existe plusieurs solutions éprouvées pour réduire la consommation. Elles agissent à plusieurs niveaux : à l’échelle des centres de données, des logiciels et sur les combinaisons matériel/logiciel.

Certaines solutions impliquent des compromis plus ou moins importants. Ils peuvent se situer au niveau de la performance ou de la qualité du service rendu. Dans ces cas, pour que les solutions soient mises en place, cela nécessite donc un alignement entre métier et IT. Cela permet de définir l’équilibre optimal entre qualité de service et efficacité énergétique. Certaines solutions sont en revanche totalement « gratuites » : la consommation peut baisser sans aucun sacrifice à faire ailleurs !

Un article rédigé par :

daniel vanzo hpc

 

Daniel Vanzo

HPC Development Support


Coding Dojo

Le mardi 22 juin 2021 à  19h, les équipes Craft et DevOps d’Aneo animent un Coding Dojo à distance !

Un coding dojo, c’est quoi ?

C’est une rencontre dans laquelle plusieurs développeurs se rassemblent pour relever un défi de programmation de manière collective. Cette édition est organisée par David et Baptise du cercle Craft & DevOps.

coding dojo devObjectifs du Coding Dojo :

  • S’entrainer aux bonnes pratiques de développement et d’architecture logiciel dans le but d’améliorer son niveau tous ensemble.

Prérequis :

  • Une expérience (pro ou amateur) dans le dev logiciel
  • Un pc prêt à être utiliser pour développer (au cas où)
  • Environnement de développement (IntelliJ, Visual Studio, Visual Studio Code…)
  • Framework de test unitaires pour votre langage (JUnit, XUnit, PyTest, Jest…)

Format :

  • Discussion autour de la notion d’architecture logiciel et bonnes pratiques de dev
  • Coder une solution à un exercice simple (kata)
  • Mob/ensemble programming
  • Echange sur la pratique en fin d’exercice (retours d’expérience, ressenti, apprentissage…)

Vous souhaitez participer ? Envoyez un mail à devops@aneo.fr ! Attention, le nombre de places est limité.

Aneo est une agence de conseil en transformation qui accompagne ses clients sur des projets de transformation technologiques (Urbanisation, Optimisation, Conception, Développement logiciel etc). Nous sommes toujours à la recherche de passionnés de développement qui ont l’envie d’apprendre et d’intégrer une communauté. Découvrez nos offres d’emplois ici !


Tech Intelligence #5 – Pourquoi le cloud est-il utile au secteur de la défense ?

La série Tech Intelligence explore des sujets variés de la tech : cloud, cybersécurité, blockchain … Aujourd’hui, découvrez un rapide coup d’oeil sur le développement du cloud dans le secteur de la défense. Cliquez ici pour retrouver les autres sujets traités par Tech Intelligence. 

Lorsque l’on observe les conflits armés les plus récents, les grandes puissances ont systématiquement recours à des attaques coordonnées entre les différentes branches de leurs services militaires. Prenons l’exemple de l’opération Serval (2013). Celle-ci visait à déployer le plus rapidement possible un contingent de force spéciale (COS). Il visait à soutenir les forces maliennes afin de ralentir la progression offensive de groupes armés islamistes (Ansar Dine, MUJAO et AQMI). Cette intervention éclair a nécessité la coordination de l’armée de l’air, de l’armée de terre, de la marine, de la DGSE, de la DRM (direction des renseignements militaire), de la gendarmerie et bien entendu des forces alliées. C’est précisément sur ces attaques éclair regroupant de multiples acteurs que le Cloud joue un rôle clé.

L’utilisation du cloud est conceptualisée dans la défense comme le « Multi-Domain Combat Cloud », cela vie à améliorer la puissance de défense et d’attaque grâce à la supériorité de l’information. Plus spécifiquement, il s’agit d’un réseau d’information décentralisé (cloud), cyber résilient (capacité à adapter sa politique de sécurité informatiquequels que soient les événements) et collaboratif dans les domaines de l’air, de la terre, de la mer, de l’espace et de la cybersécurité. L’intérêt est de connecter des nœuds pour toutes les forces dans tous les domaines. L’intelligence et les échanges étant donc permis en temps réel. A cela s’intègrent les pratiques déjà existantes dans chaque domaine. Cela permet ainsi de garder les spécificités qui font la force des services.

Le cloud : un environnement stratégique

La supériorité de l’information permet à l’attaquant ou au défenseur plusieurs choses. Premièrement le cloud offre un environnement propice aux traitements du Big Data issue de l’IoT. Nombreux sont les matériels militaires connectés à des services informatiques (que ce soit de l’armement, transport, surveillance, etc.). L’enjeu est la maitrise et la gestion de ces données afin d’améliorer les processus de stockage, de management, d’analyse, de sécurisation ou encore de disponibilités.

Deuxièmement, plus le nombre de nœuds (bases reliées entre elles) sont connectés au même environnement cloud plus l’utilisation de la technologie est opérationnelle. Le cloud permet de réduire la ségrégation naturelle entre chaque environnement (terre, mer, air et l’orbite terrestre).  In fine, cela accélère la boucle décisionnelle (choix des actions ou des cibles).

Les synergies et la coordination étroite entre les acteurs du renseignement en amont, les différents échelons de commandement et les services terrains dans chaque milieu seront au cœur des enjeux militaires à venir pour faire du cyberespace un nouvel environnement de confrontations. La quantité d’information qui sera générée sur le champ de bataille, la puissance de calcul nécessaire pour traiter ces informations et les algorithmes prédictifs vont devenir des éléments d’avantages stratégique. Il est donc nécessaire de sécuriser son environnement informatique pour préserver ses intérêts.

Le traitement des données va permettre de créer des modèles prédictifs. Les outils de modélisation-simulation-optimisation (MSO) ouvre la voie à une nouvelle forme de conflit, la guerre prédictive. En effet, s’il est possible d’accumuler et traiter autant de données, il est donc possible d’établir des scénarios (modèles). Cette manière d’anticiper (les mouvements ennemis, les cibles potentiels, les faiblesses, etc.) permet de réduire le niveau d’incertitude lorsque l’on décide d’engager des forces physiques et donc de diminuer les pertes potentielles

Source : Unsplash

Le cloud en situation

L’objectif du cloud combat est qu’il soit opérationnel tout le long de la mission. Il ne doit pas subir les conditions de terrain, de météo ou d’attaque. En effet, il doit garder son autonomie (chaque unité doit garder le contrôle de son environnement informatique). Enfin, il se doit d’être agile.

Thales Group nous présente l’exemple suivant. Dans un conflit naval qui engage deux frégates connectées au même environnement cloud, l’une d’elle subit une attaque électromagnétique qui rend ses capteurs et radars inutilisables. La deuxième ne subit pas l’attaque, elle va transmettre les informations qu’elle obtient sur la position de l’ennemi à l’aide de ses capteurs et radars qui sont eux opérationnels. Ce partage d’information via l’usage du cloud va aider la frégate paralysée à localiser l’ennemi et répliquer à son tour. Nous pouvons aussi imaginer le scénario suivant. Les deux frégates se trouvent être victime de l’attaque, le Pacha décide de faire intervenir un satellite militaire pour localiser l’attaquant. Les coordonnées (voire les images) seront alors transmises en temps réel au déploiement naval. C’est tout l’intérêt de la fédération des données.

Le cloud joue aussi un rôle dans l’intégration d’autres technologies au sein de l’armée. Les évolutions de l’intelligence artificielle rendent possible la constitution de groupe de petits robots. Ceux-ci agissant collectivement pour remplir des missions de façon coordonnées. Par exemple, la constitution de flottes de drones qui réagissent et se réorganisent lorsque l’un d’eux est détruit. Cet essaim partage et communique dans un même cyberespace afin de prendre des décisions collectives. Cela serait difficilement possible sans un environnement unique et décentralisé comme le cloud.

cloud défense
Source : Unsplash

Qui sont les acteurs du cloud de combat ?

En France il existe deux intégrateurs. Cependant, nous ne possédons pas d’acteur majeur sur le marché du cloud. Nous sommes obligés de nous référer à nos alliés américains. Seulement, intégrer la technologie du cloud au sein de l’armée relève de la sécurité nationale et de la souveraineté du pays.

Pour ce faire, Thales Group a choisi d’utiliser le cloud de Microsoft (Azure) et Airbus Defense & Space celui de Google (GCP). Les deux intégrateurs européens se chargent de sécuriser l’environnement cloud fourni aux armées afin de préserver la confidentialité des données partagées en interne. Les services militaires interviennent dans un environnement particulier (théâtre d’opération, bases opérationnelles avancés ou lointaine). L’environnement doit donc être configuré différemment d’un système commercial. Comme rappelé plus haut, chaque système doit préserver une certaine autonomie. Il doit également être capable de fonctionner hors ligne (à cause des conditions de terrains et météorologiques). Les infrastructures physiques (serveurs, stockage) se doivent être elles aussi adaptées aux terrains avec une résistance plus importante.

C’est la solution de Thales Group qui a été choisi par les forces de l’OTAN car répondant aux standards « Federated Mission Networking » (interopérabilité, l’échange d’informations et l’échange de renseignements). Un autre exemple qui démontre l’utilité du cloud dans la coopération des réseaux de commandement. C’est aussi le cas pour la conduite lors des opérations mais cette fois-ci entre nations.

Conclusion :

L’utilisation du cloud dans le domaine militaire redéfinit la manière de faire la guerre. En effet, l’environnement humain nous pousse à agir de plus en plus vite et de façon très précise. La coordination devient ainsi un élément central. Récolter, traiter, analyser et partager les données augmente la flexibilité et la prise de décision. Les conflits de demain nécessiteront de la part des acteurs une agilité et une innovation importante. En effet, cela sera nécessaire pour prédire le comportement adverse. C’est seulement en unifiant les différentes branches militaires que l’avantage stratégique s’obtiendra.

Alors qu’au Etat Unis la guerre fait rage entre AWS et Azure pour obtenir un partenariat avec le Pentagone sur la mise en place d’un cloud. L’armée française avance en coopération avec Thales et Microsoftcependant la menace du Patriot Act et plus récemment du CLOUD Act qui donnent un droit de regard aux autorités sur les données traitées par les entreprises américaines, ce qui pose un sérieux problème de souveraineté sur nos systèmes d’informations. La solution serait-elle de créer en interne son propre environnement cloud ?

SOURCES :


RSE en Conseil d’Administration : et les GAFAM ? – Entreprise, Numérique et bien commun #2

Cet article RSE en Conseil d’administration fait partie de série sur le thème « Entreprises, Numérique et Bien Commun ». Ils sont publiés par une équipe de consultants Aneo. Retrouvez notre précédent article à ce lien 

Se préoccuper des parties prenantes est devenu à la mode. En 2019, même la Business Roundtable (l’association des DG des grandes entreprises américaines) a reconnu que « les entreprises doivent s’engager à apporter de la valeur à toutes les parties prenantes » : non seulement aux actionnaires, mais aussi aux client.e.s, aux salarié.e.s, aux fournisseurs, aux communautés locales. Cette déclaration a été signée, entre autres, par Tim Cook (Apple), Jeff Bezos (Amazon) et Satya Nadella (Microsoft).

Pour traduire ces déclarations d’intentions en réalité, c’est une transformation radicale qui est nécessaire : il s’agit pour les grandes entreprises d’intégrer dans l’élaboration de leur stratégie business un principe d’équilibre entre la recherche du profit et la prise en compte des enjeux sociaux et environnementaux. Et cela ne peut pas se faire sans transformer l’instance qui seule a le pouvoir de valider de tels arbitrages : le Conseil d’administration.

Cette transformation intervient à un moment où les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) sont devenus les entreprises les plus riches, les plus puissantes et les plus influentes du monde occidental. Que ce soit en matière d’innovation, d’organisation, de logistique, de choix technologiques, les GAFAM inspirent les entreprises et les décideurs du monde entier. Nous pouvons donc faire l’hypothèse qu’ils aient un pouvoir d’influence aussi en ce qui concerne les modèles de gouvernance d’entreprise.

Il est alors intéressant de poser la question suivante : Chez les GAFAM, la composition et le fonctionnement des Conseils d’administration (CdA) favorisent-ils un équilibre entre la recherche du profit et les intérêts des autres parties prenantes ?

Les points forts des GAFAM

La parité femme/homme

La parité femme / homme au sein d’instances de direction permet de favoriser la parité d’opportunités entre les genres au sein de nos sociétés ; quelques études suggèrent même que les femmes administratrices (i.e. membres de CdA) seraient plus sensibles que leurs collègues hommes vis-à-vis des enjeux sociaux et environnementaux.

La présence de femmes en CdA est un point fort des GAFAM, chez lesquels les femmes représentent 41% des administrateur.rice.s – un niveau sensiblement plus élevé que la moyenne des entreprises américaines. Ceci dit, attention aux effets vitrine : chez Microsoft, par exemple, on compte 7 femmes sur 13 en CdA mais seulement 20% parmi le Top management.

No alt text provided for this image

Aux États-Unis, à la différence de la France et de la plupart des pays européens, il n’existe pas d’obligation fédérale en matière de diversité femme/homme. Au résultat, en 2019 la part des femmes administratrices  s’attestait à 27%, bien loin des pays leader en cette matière – tels que la France (45%), l’Islande (44%) ou la Nouvelle Zélande (42%).

La situation est cependant en train d’évoluer, notamment suite à l’introduction de quotas de femmes dans les CdA par l’État de la Californie.

Diversité d’origine ethnique

La diversité d’origine ethnique peut favoriser une meilleure prise en compte des enjeux d’inclusion économique et sociale.

Or, que ce soit en France ou aux États-Unis, la situation relativement à ce critère est loin d’être satisfaisante. Aux États-Unis, en 2019, les administrateur.rice.s issu.e.s de minorités ethniques n’étaient que 10%, alors que ces groupes représentent 40% de la population. En France, il n’existe pas de statistiques officielles, néanmoins une étude empirique suggère que les membres de CdA de grandes entreprises se déclarant issu.e.s d’une minorité ethnique ne seraient que 4% du total.

Chez les GAFAM, sur la base d’un calcul empirique, les membres de CdA issus de minorités ethniques représenteraient autour de 18% – un niveau là aussi plus élevé que la moyenne des grandes entreprises américaines. Google et Microsoft ont même des DG issus d’une minorité (indienne, en l’occurrence). On peut néanmoins s’étonner que des entreprises comme Facebook et Amazon n’aient aucun.e afro-américain.e au sein de leur CdA.

La sous-représentation des minorités ethniques dans les entreprises du secteur IT puise ses racines dans le système d’éducation universitaire. Aux États-Unis, dans les filières d’ingénierie, les étudiant.e.s d’origine autre que « Blanc non hispanique » ne représentent que 6% des diplômés de master et 5% des docteurs.

Diversité d’âge

Dans un contexte de fort clivage entre générations (ce sont très majoritairement les jeunes qui manifestent pour le climat) la présence de jeunes en CdA peut favoriser une vision davantage orientée vers le long-terme, en particulier en matière de lutte contre le changement climatique. En 2016, l’État du Québec a même voté une loi qui prévoit qu’à partir de 2021, toutes les sociétés contrôlées par l’État doivent compter au moins une personne de moins de 35 ans au sein de leurs CdA.

Chez les GAFAM, l’âge moyen des administrateur.rice.s est bien inférieur à la moyenne des grandes entreprises américaines. Néanmoins, contrairement à ce qu’on pourrait imaginer, seulement deux administrateurs sur 60 (tous les deux chez Facebook) ont moins de 45 ans.

De façon générale, malgré la révolution numérique, ces dernières années les CdA des grandes entreprises américaines ont plutôt vieilli : en 2019, l’âge moyen des membres de CdA était de 62 ans et les moins de 45 ans ne représentaient que 5% du total !

Les points faibles des GAFAM 

Compétences sociales et environnementales

Pour intégrer dans la stratégie d’une entreprise les enjeux environnementaux et sociaux, il faut aussi se doter des compétences nécessaires. Or comme le résume une note de l’International Corporate Governance Network (organisation d’investisseurs qui promeut des standards pour la gouvernance d’entreprise), « les membres des CdA des grandes entreprises sont en grande partie des anciens directeurs à la retraite, qui ont mené la plupart de leur carrière à une époque où le changement climatique et la transition vers des modèles durables étaient des sujets marginaux ».

Aujourd’hui, seulement 10% des membres de CdA des grandes entreprises américaines disposent de compétences en matière sociale ou environnementale, contre 70% pour les compétences financières. Selon l’ICGN, « très peu de CdA sont en mesure de traiter les enjeux environnementaux avec la même rigueur et le même professionnalisme que des enjeux tels que la stratégie, la gestion des risques ou l’audit interne ».

Chez les GAFAM, la situation n’est pas meilleure. Leurs administrateur.rice.s sont issus de grandes multinationales, d’institutions financières, d’entreprises du secteur IT, ou alors de la politique ou de la haute administration (le cas le plus illustre : Al Gore, ancien vice-président des États-Unis et activiste environnemental, aujourd’hui au CdA d’Apple). En revanche, aucun d’entre eux n’est issu d’une carrière dans des organisations sociales ou environnementales : ONG, fondations, institutions d’aide au développement, instituts de recherche sur le climat ou la biodiversité.

No alt text provided for this image

Représentation des salariés en CdA

Les salarié.e.s sont, aux côtés des actionnaires, l’autre « partie constituante » de l’entreprise, dans laquelle ils.elles investissement leur temps, leurs compétences, leur engagement et même parfois, leur santé. Tenant compte de cela, de nombreux pays obligent les grandes entreprises à avoir un ou plusieurs membres de CdA salarié.e.s.

C’est le cas de la plupart des pays de l’Union Européenne et notamment de la France, où le dispositif des membres de CdA salarié.e.s a été renforcé par la loi Pacte de 2019. Au CdA d’Orange, par exemple, sur 14 membres, on retrouve 3 administrateurs salariés. En Allemagne, les représentant.e.s des salariés peuvent atteindre jusqu’à la moitié des places en Conseil de Surveillance.

No alt text provided for this image

Aux États-Unis, les entreprises n’ont pas cette obligation (les initiatives législatives  récentes en cette matière n’ont pas abouti), mais rien n’empêche non plus les entreprises d’avoir des membres de CdA salarié.e.s. Selon certains, cela aurait même beaucoup de sens chez les GAFAM, où il n’est pas rare que des groupes de salarié.e.s organisent des initiatives de contestation de choix de leur direction (employee activism). Ainsi, au-delà de porter la voix des collaborateurs, des salarié.es administrateur.rice.s peuvent aider à prévenir ces situations qui peuvent se traduire par des coups portés à l’image de l’entreprise ou à des démissions de personnes clés.

Pour l’instant, cependant, aucun GAFAM n’a fait le choix d’attribuer des places en CdA à des représentant.e.s des salarié.e.s. En 2019, chez Microsoft, une résolution qui allait dans cette direction a été soumise par un actionnaire minoritaire, mais l’assemblée des actionnaires s’y est opposée.

Comités dédiés à la RSE

Un autre moyen de favoriser la prise en compte des enjeux extra-financiers consiste à créer au sein de CdA des Comités dédiés à la RSE.

Sur le plan réglementaire, les grandes entreprises américaines cotées doivent se doter d’au moins trois Comités. Ceux-ci doivent être en charge, respectivement, du Contrôle interne, des Rémunérations, des Nominations et de la Gouvernance. Elles peuvent ensuite se doter d’un ou plusieurs Comités supplémentaires – typiquement des Comités exécutifs (38% des entreprises) ou financiers (36%). En 2018, seulement 6% des entreprises du S&P 500 s’étaient dotées d’un Comité responsabilité sociale et environnementale.

Les GAFAM ne sont pas particulièrement exemplaires : aucun de leurs CdA ne s’est doté d’un comité entièrement dédié aux enjeux sociaux et environnementaux. Chez Microsoft, il existe un Comité des Affaires réglementaires et politiques publiques (Regulation and Public Policies) qui est en charge, entre autres, des enjeux sociaux et environnementaux. Chez Facebook, il existe un Comité Respect de la vie privée (Privacy).

D’autres entreprises du numérique ont pourtant pris cette voie : c’est le cas par exemple d’AirBnb qui a annoncé en 2020 la création d’un Comité parties prenantes (Stakeholder committee), en charge de suivre l’apport de valeur aux principales parties prenantes (actionnaires ; salariés ; hôtes ; locataires ; communautés locales) via une liste précise d’indicateurs, rendus publics par la société.

Instances de dialogue avec des personnalités externes

Une autre manière pour les CdA de mieux prendre en compte les intérêts des parties prenantes consiste à créer des instances de dialogue entre des administrateurs et des personnalités externes dotées d’expertises en matière sociale ou environnementale : représentant.e.s d’ONG ; expert.e.s académiques ; ancien.ne.s responsables politiques etc. Puisqu’elles ne sont pas mandatées pour faire les intérêts des actionnaires, ces personnalités disposent d’une plus grande marge de liberté pour pouvoir critiquer les choix de l’entreprise.

En France, des entreprises aussi diverses qu’AXA, Michelin, la MAIF, la SNCF ou EDF ont constitué ce type d’instances, souvent appelées Comités parties prenantes. Le cas de la MAIF est particulièrement inspirant : devenue en 2020 société à mission, l’entreprise s’est dotée d’un Comité de mission « chargé de s’assurer que ses actes sont en adéquation avec sa raison d’être et ses engagements sociaux et environnementaux ». Ce Comité est composé actuellement de dix membres dont cinq internes. Deux administrateur.rice.s, un directeur général adjoint, deux salariées. Mais aussi cinq externes (deux universitaires, une syndicaliste, deux personnalités issues du monde associatif). Rien de tel n’existe pour le moment chez les GAFAM.

No alt text provided for this image

Le Conseil de surveillance (Oversight Board) de Facebook : une « Cour suprême » à l’intérieur de Facebook ?

Parmi les innovations en matière de gouvernance, le très controversé Conseil de surveillance (Oversight Board) de Facebook mérite un discours à part. Celui-ci est une sorte de Cour suprême privée, chargée de prendre des décisions sur des cas particulièrement sensibles de modération de contenus (suppression de contenus, suspension ou expulsion d’un utilisateur…) mais aussi de formuler des recommandations à Facebook concernant l’évolution de ses politiques internes de modération.

Le Conseil de surveillance est une entité juridiquement et financièrement séparée de Facebook et ses délibérations sont contraignantes pour l’entreprise. Il est composé de 11 à 40 personnes expertes de « sujets relatifs au contenu numérique et à la gouvernance, notamment la liberté d’expression, le discours civique, la sécurité, la confidentialité et la technologie ». Parmi les 19 membres actuels, qui ont été sélectionnés par Facebook, figurent des professeur.e.s de droit, des journalistes, des éditeur.rice.s, des représentant.e.s d’ONG et de fondations, des activistes sociaux.ale.s et des anciens décideurs politiques. A terme, les nouveaux membres seront sélectionnés par le Conseil lui-même.

Cette initiative fait débat. Certains y voient une innovation positive. En effet, en l’absence d’une régulation par les pouvoirs publiques, le Conseil assure au moins que les décisions de modération les plus controversées de Facebook soient revues par un panel d’experts indépendants. D’autres considèrent en revanche qu’en se dotant de cette espèce de Cour suprême, Facebook essaie de se légitimer comme une sorte d’État indépendant et par ce moyen, d’échapper à l’autorité des États.

Cette innovation va-t-elle durer dans le temps ? D’autres entreprises vont-elles suivre l’exemple de Facebook ? Il est trop tôt pour mesurer les impacts de long terme de cette initiative. Quoi qu’on en pense, c’est tout de même la première fois qu’une grande multinationale ait introduit une instance autonome dont les décisions sont contraignantes pour le top management et le CdA.

Considérations finales

Les Conseil d’administrations des GAFAM présentent globalement des niveaux de diversité (genre, origine ethnique, âge) plus élevés que la moyenne des grandes entreprises américaines. Cette diversité peut favoriser une certaine ouverture vis-à-vis notamment des enjeux sociaux d’inclusion et de parité d’opportunités. Pensons par exemple à des mouvements comme Mee Too et Black Lives Matter).

Néanmoins, cela ne suffit pas pour tenir la promesse faite par les grandes entreprises d’ « apporter de la valeur à toutes les parties prenantes ». Pour cela, les GAFAM pourrait en partie s’inspirer de solutions déjà existantes en Europe. Comme par exemple, les administrateurs salariés ou les Comités parties prenantes.

Ils pourraient également faire preuve en matière de gouvernance du même esprit d’innovation qu’ils ont démontré sur d’autres terrains et tester des solutions inédites de dialogue et d’élaboration de compromis avec les parties prenantes. Pourquoi pas, en s’appuyant aussi sur les possibilités offertes par les technologies numériques.

Un article rédigé par :

giovanni reibaldi senior manager

 

Giovanni Reibaldi

Senior Consultant Stratégie et Organisation


Tech Intelligence #2 – Pourquoi est-il si difficile de lutter contre les ransomwares ?

La série Tech Intelligence explore des sujets variés de la tech : cloud, cybersécurité, blockchain … Aujourd’hui, découvrez un éclairage sur la lutte contre les ransomwares. Cliquez ici pour retrouver les autres sujets traités par Tech Intelligence. 

En 2020, l’Agence Nationale de la Sécurité des Systèmes d’informations Françaises (ANSSI) a recensé 192 incidents « rançongiciel » ou ransomwares. C’est quatre fois plus qu’en 2019.

Ces attaques appelées « ransomware » ont pour but de crypter les données d’une entreprise pour ensuite réclamer une rançon sous la menace de publier les informations volées. Cette piraterie mondiale touche tous les pays, toutes sortes d’entreprises ou d’institutions.

Bien que le phénomène soit mondial, l’hexagone figure parmi les pays les plus touchés. Pourquoi ? Selon la magistrate Johanna Brousse qui dirige la section J3 dédié à la lutte contre la cybercriminalité « […] la France est l’un des pays les plus attaqués […] parce que nous payons trop facilement ».

Pourquoi et comment lutter contre les ransomware ?

 

Partie 1 : L’origine des ransomwars

C’est à la fin des années 1980 que les premiers ransomware ont fait leur apparition. Leur but était simple : un malware bloquait l’accès soit au système d’exploitation ou au navigateur jusqu’à ce que l’utilisateur paie une rançon. Le montant était payé via des codes SMS ou des transferts d’argent vers des portefeuilles électroniques. Mais ce type de chantage a vite évolué. En effet, il était trop risqué puisqu’il suffisait de retracer les flux d’argent pour remonter à l’assaillant.

Depuis les temps ont changé, le chiffrement a évolué et le bitcoin est apparu.

En plus de bloquer l’accès au système, les données présentes sont désormais cryptées sur les disques durs. A l’heure où l’exploitation des données est au cœur de l’activité de nombreuses entreprises, celles-ci se retrouvent alors complétement paralysées. En effet, il est maintenant très difficile de décrypter les données chiffrées par des algorithmes de type ChaCha20 ou RSA 2048 bits utilisés dans la majorité des attaques.

Les moyens de paiement ont eux aussi évolué. Les rançons sont aujourd’hui réclamées par transferts de cryptomonnaies, principalement le bitcoin. L’assaillant utilise la technologie de la blockchain pour rendre le traçage du paiement presque impossible et préserver son anonymat.

Les ransomwares ont donc connu de profondes évolutions permises principalement par l’évolution de la technologie. Les offensives sont plus efficaces et plus sécurisées pour leurs instigateurs. Cependant une autre variable permet de comprendre pourquoi les ransomwares se diffusent à grande échelle.

 

Partie 2 : Diffuser les ransomwares à grande échelle, la mission des « cyber gangs »

« Egregor, REvil, Netwalker » ou plus récemment « Darkside », nombreuses sont les organisations cybercriminelles à l’origine de ses attaques.

Ces organisations sont en réalité les créateurs des malwares de cryptages mais aussi leurs relais. Prenons l’exemple d’Emotet, un botnet (large réseau d’ordinateurs contrôlés par un même individu) créé par le groupe Egregor qui vient d’être mis hors services en ce début d’année par une coalition de différents pays dont la France.

Cybergangs : comment fonctionnent ces systèmes ?

Le mode opératoire des organisations cybercriminelles

La première étape consiste à infiltrer le système d’information. L’attaquant envoie un mail frauduleux contenant soit un lien contaminé par Emotet soit une pièce jointe elle aussi infectée. L’assaillant exploite donc une faille humaine. Celle-ci peut être un manque de vigilance, ou l’activation de biais cognitifs. Par exemple, simuler une situation d’urgence pour forcer le lecteur à cliquer sans prendre de recul.

La deuxième étape une fois qu’Emotet est bien installé sur la machine, est de lever les restrictions. L’assaillant va s’octroyer des droits pour se déplacer librement dans le système d’exploitation. Cette levée de restrictions va permettre par la suite d’installer d’autres malwares pour voler et crypter les données. Un des malwares les plus utilisés est Ryuk. Ce dernier a été conçu pour cibler les systèmes Windows et une fois infiltré, il s’auto-propage.

Le fonctionnement du « Ransomware-as-a-service »

Le but de l’organisation Egregor est de contaminer un maximum de machines avec Emotet pour ensuite vendre ces points d’accès à d’autres groupes qui souhaitent y installer un ransomware comme celui décrit au-dessus. On appelle ça du « Ransomware-as-a-service ». Le groupe met à disposition son réseau et sous-traite l’attaque et la demande de rançon. Le but du groupe est de ne pas s’impliquer directement tout en récupérant un pourcentage sur la rançon.

Emotet a été particulièrement virulent car a utilisé plus d’une centaine de serveurs à travers le monde. Il a ainsi pu agir sur de nombreuses zones.

Depuis, ce botnet a été mis quasiment totalement hors service. Les serveurs principaux que le groupe Egregor utilisaient pour Emotet ont été confisqués et certains de ses membres arrêtés.

Face à cette menace prise très aux sérieux par les entreprises et les institutions publiques, il est normal que certaines victimes cèdent au chantage. En France, les services de lutte alertent les entreprises touchées et les incitent à ne pas agir sans réflexion.

 

Partie 3 : Les entreprises françaises cèdent-elles trop facilement aux ransomwares ?

La magistrate Johanna Brousse chargée de centraliser les dossiers sur le plan national s’est plainte devant le Sénat que les entreprises françaises cédaient trop facilement aux menaces des ransomwares. Guillaume Poupard, Directeur de l’ANSSI, a par ailleurs repris ces propos. Selon ce dernier, certaines entreprises jouaient « un jeu trouble ». Ce dernier rappelle tout même que pour certaines entreprises, il est préférable de payer la rançon plutôt que de subir des dégâts plus importants. Par exemple, des entreprises à capital ouvert (cotées) préfèrent payer la rançon pour garder l’information confidentielle. Si elle refuse, ses données seront divulguées et cela risque d’envoyer un signal négatif aux investisseurs.

Il est aussi intéressant d’observer que sans une résistance collective, les rançonneurs trouveront toujours des victimes. La vague d’attaques en 2020 a frappé les hôpitaux américains, qui en situation d’urgence provoquée par la pandémie et grâce à leurs capacités financières, ont été largement victimes de ransomwares et pris partis de payer les rançons. Un signal envoyé aux attaquants qui ont répliqué leurs attaques sur les établissements de santé européens ne possédant pas les mêmes ressources. Cependant le commissaire divisionnaire à la BL2C Eric Francelet nous fait remarquer qu’il est aujourd’hui « […] constaté que les auteurs prennent le temps de cartographier l’environnement de la future victime notamment pour chiffrer ses sauvegardes et adapter le montant de la rançon à ses capacités financières supposées ». Cela peut rendre le paiement des rançons plus abordable et donc accentuer le nombre d’attaques.

Quelques assureurs ont saisi l’opportunité et interviennent en tant que négociateur auprès des rançonneurs afin de réduire le montant réclamé. Ce service est par la suite facturé à l’entreprise.

 

Alors comment lutter efficacement contre les ransonmwares?

En France, 3 agences ont pour rôle d’étudier et prévenir ce type de menace : le C3N, le BL2C et l’OCLCTIC. Leur principale limitation est aujourd’hui leur cloisonnement. En effet le partage d’informations entre ces trois entités n’est pas systématique et ne permet pas à date de cartographier précisément les différentes attaques.

Ce problème de coopération se retrouve aussi entre les services judiciaires et les services de renseignements. Il est aujourd’hui en France impossible pour les deux services de communiquer officiellement entre eux leurs informations, freinant de fait leur capacité d’action.

Enfin, une autre contrainte pèse sur les agences en charge de lutter contre la cybercriminalité : la plupart des ransomwares proviennent de pays étrangers à celui de la victime. Ainsi les autorités qui souhaitent poursuivre les cybercriminels doivent normalement demander l’autorisation du pays « hôte » pour intervenir sur son territoire. La coopération internationale fonctionne parfois. C’est le cas en 2021 où une coalition de 8 pays (Pays-Bas, Allemagne, France, Lituanie, Canada, Etats-Unis, Royaume-Unis et l’Ukraine) a permis l’arrestation de membres liés à Emotet.

 

Conclusion

La coopération internationale a donc permis de mettre un coup d’arrêt aux activités du cyber gang Egregor avec la mise hors service de Emotet, son bras armé. Toutefois, Egregor n’est pas le seul cyber gang à peser sur la sécurité des entreprises et des institutions. Le concurrent REvil, un groupe russe, après avoir divulgué l’identité de son concurrent Egregor, réclame désormais près de 20 millions d’euros à l’entreprise Apple. La menace que représente la cybercriminalité n’épargne aucune entreprise. La lutte contre la cybercriminalité exige la mise en place d’une coopération à l’échelle internationale, d’un accompagnement des entreprises et organisations visées et d’une meilleure coordination entre les agences françaises. Sans cela la lutte ne pourra être réellement efficace.

 

Sources :

Romanian duo arrested for running malware encryption service to bypass antivirus software | Europol (europa.eu)

World’s most dangerous malware EMOTET disrupted through global action | Europol (europa.eu)

De la BEFTI à la Brigade de lutte contre la cybercriminalité de la Préfecture de Police…  – SDBR News –             Le Blog – Security Defense Business Review – Blog

Ransomware : Egregor, la relève cybercriminelle – ZDNet

Ransomwares : les entreprises cèderaient trop facilement | ITespresso.fr

Après une vague d’arrestations, Egregor devra recruter de nouveaux hackers – Cyberguerre (numerama.com)

Russian Foreign Intelligence Service (SVR) Cyber Operations: Trends and Best Practices for Network Defenders | CISA

 


Vous avez un projet de transformation
digitale pour votre entreprise ?