réduire coût développement application pattern library

Gagner du temps lors du développement. Développer vos applications plus vite et mieux. Voici les vœux de toute entreprise, pressée de voir sa solution mise sur le marché. Mais quand il faut créer « from scratch », ce n’est pas toujours simple de les exaucer.

Pour répondre à ces attentes, chez Premaccess, nous avons mis au point une bibliothèque de modèles (pattern library). Notre objectif : permettre à nos clients de réaliser un gain de temps lors du développement d’applications en utilisant des modèles déjà disponibles.

Cette bibliothèque des modèles est le fruit de nos 20 ans d’expérience dans la programmation, et 7 ans sur AWS Cloud. Au fil des projets, nos experts ont su déployer des « patterns », au code « propre », facilement déclinables en fonction des besoins clients, “en mode legos”. 

Dans cet article, nous vous proposons de revenir sur le principe de la bibliothèque de modèles (pattern library), nous présentons son intérêt pour les développeurs et les décideurs. Et nous vous dévoilons différents modèles que nous avons conçus lors de projets en co-développement avec nos clients : gestions d’invitations, dashboard analytique, déploiement d’interfaces automatisé…

Qu’est-ce qu’une bibliothèque de modèles (ou pattern library) ?

Il s’agit d’un ensemble de composants réutilisables qui façonnent une application ou un progiciel. Un composant = une fonctionnalité et une mise en page.

Sur un site e-commerce, par exemple, parmi les composants, nous pouvons retrouver : la gestion du panier, les coupons de réductions, les avis client, les recommandations en fonction de vos achats précédents ou bien de vos caractéristiques (taille, morphologie)…

Ainsi, dans une bibliothèque de modèles, vous accédez à une collection de composants.

Tous ont été testés plusieurs fois sur d’autres projets. Ils sont donc prêts à l’emploi pour de nouvelles créations. C’est en cela qu’ils permettent de gagner un temps non négligeable lors de nouveaux développements.

Utiliser notre pattern library : de nombreux intérêts pour les porteurs de projets

pattern library avantages porteurs de projets
  • Vous développez des fonctionnalités et votre solution + rapidement.
  • Nos experts co-développent avec vous et vos équipes les fonctionnalités dont vous avez besoin, et les personnalisent selon vos objectifs.
  • Chaque composant propose une fonctionnalité, et donc un code largement éprouvé et vérifié par nos experts. Ce qui vous assure un code de bonne qualité.
  • Vous rendez votre application évolutive, car les améliorations en continu sont plus faciles à apporter.
  • Votre application étant divisée en micro-modules, la chasse au bug est beaucoup plus facile. La maintenance aussi !
  • Vous pouvez aussi bénéficier des évolutions des autres clients sur les mêmes patterns.

Gestion des invitations, amélioration des performances de votre site e-commerce, automatisation de vos déploiements : voici 3 modèles facilement déclinables

En tant que AWS Partner, nous disposons, chez Premaccess, d’une forte expertise sur les services AWS. Sur ce cloud, nous proposons les services suivants :

Dans chacune de ces expertises, nous avons créé des modèles réutilisables lors de développements sur AWS. Découvrez 3 exemples.

Gestion des invitations

Avec les services Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS

Principe de ce modèle : pour une start-up spécialisée dans la visite de lieux  en 360° et en live, nous avons eu pour mission de créer un module fonctionnel de gestion des invitations sur son application. Depuis 2019, cette entreprise propose aux internautes des visites guidées à distance. Misant sur la vidéo 360° et sur l’interactivité, ce service est aujourd’hui prisé par des secteurs B2B comme l’immobilier, et B2C comme la culture et le tourisme.

Lors de la création de ce module, la question principale était : comment faire pour que les invités n’aient accès qu’à cette session et pas une autre ? Se posent ici des interrogations liées à la gestion des droits des utilisateurs. Nous avons développé cette fonctionnalité en combinant 4 services AWS (Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS) et en générant des fonctions Lambda Trigger.

A propos des services AWS utilisés : 

  • Amazon Cognito prend en charge l’inscription, la connexion des utilisateurs ainsi que le contrôle d’accès (authentification) aux applications Web et mobiles.
  • AWS Identity and Access Management (IAM) permet de contrôler de façon sécurisée l’accès aux services et ressources AWS mis à la disposition des utilisateurs.
  • Amplify JS est une bibliothèque JavaScript pour le développement d’applications sur le cloud.

Comment fonctionne Amazon Cognito et AWS IAM :

Gestion des invitations Avec les services Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS

Amélioration des performances de votre site e-commerce

Avec les services Amazon Kinesis, S3, Athena et QuickSight

Principe de ce modèle : nous avons été sollicités par une start-up spécialisée dans la recommandation de taille. Cette solution permet à plusieurs marques de vêtements de fournir des recommandations de tailles à leurs internautes en fonction de leur morphologie. 

Lors de sa bascule sur le cloud d’AWS, nous avons investi Amazon Kinesis Data Streams et la chaîne de services suivants : S3 + Athena + QuickSight. Objectif : mettre à disposition de Fitizzy un tableau de données stratégiques pour permettre à ces clients (marques de vêtements) de booster leurs ventes en ligne.

Kinesis est un service managé permettant de collecter, trier et analyser des flux importants de données en temps réel. Dans le cas de la solution Fitizzy, nous l’avons utilisé pour analyser les datas stratégiques des sites marchands utilisant cette solution. Pour chacun de ces sites, Kinesis analyse les pages vues, les clics sur notre bouton d’action, l’ouverture de notre plugin, le contenu de notre recommandation, l’ajout au panier, l’achat ou l’abandon de panier. 

L’ensemble de ces données ont été mises à disposition des clients de Fitizzy grâce au service Amazon QuickSight. Via un Dashboard dédié, ils y retrouvent l’ensemble de ces datas sous forme de graphiques. Ces KPIs peuvent être utilisés par leur service marketing pour améliorer les performances de son site e-commerce. Elles peuvent également être intéressantes par ses modélistes pour optimiser les nouvelles collections en analysant les données morphologiques du moment.

A propos des services AWS utilisés : 

  • Amazon Kinesis Data Streams : Avec Amazon Kinesis,vous pouvez collecter et traiter des flux volumineux d’enregistrements de données en temps réel. Vous pouvez également envoyer ces enregistrements dans des tableaux de bord, les utiliser pour générer des alertes et modifier dynamiquement les stratégies tarifaires et publicitaires, ou envoyer des données à différents autres services AWS.
  • Amazon QuickSight : Amazon QuickSight est un service d’informatique décisionnelle. Il permet de créer et publier facilement des tableaux de bord d’informatique décisionnelle interactifs qui incluent des informations (insights) optimisées par le Machine Learning.

Comment fonctionne Amazon Kinesis Data Streams :

Comment fonctionne Amazon Kinesis Data Streams : Amélioration des performances de votre site e-commerce

Dupliquer facilement un espace client

Avec la solution BAM (Build Automation Machine)

Principe de ce modèle : nous avons accompagné une entreprise, spécialisée dans le e-learning, a créé sa plateforme multimédia alliant collaboratif et formation à distance. Pour chacun de ses clients (entreprises  pharmaceutiques et biotech), cette entreprise décline cette plateforme. Elle y rassemble l’ensemble de leurs procédures sous forme de courtes vidéos graphiquement enrichies et segmentées en étapes élémentaires (Mediabook).

Pour automatiser la duplication de cette architecture centrale, ce spécialiste du e-learning utilise la solution BAM. Développé par premaccess, cet outil permet d’automatiser un déploiement d’environnement facilement, rapidement et en toute sécurité en partant d’un modèle. 

A propos de BAM (Build Automation Machine) : 

Cette solution innovante permet d’automatiser la gestion et le cycle de vie de vos infrastructures et leur déploiement chez AWS. En partant des modèles de templates simples pour chaque tier de vos infrastructures (réseau, sécurité, puissance de calcul, base de données, Cache & CI/CD), vous déployez rapidement et automatiquement les différents environnements sans difficulté.

Découvrez comment fonctionne BAM ici : https://www.premaccess.com/deployez-efficacement-vos-infrastructures-avec-bam-build-automation-machine-by-premaccess/

Il s’agit ici de 3 modèles d’utilisation. Mais notre bibliothèque de modèles en contient encore davantage. Alors, si vous avez un projet de développement d’application, n’hésitez pas à nous contacter. Nous disposons certainement de modèles qui vous feront gagner du temps !

Qu’est-ce qu’une bibliothèque de modèles (ou pattern library)?

Il s’agit d’un ensemble de composants réutilisables qui façonnent une application ou un progiciel. Un composant = une fonctionnalité et une mise en page.
Sur un site e-commerce, par exemple, parmi les composants, nous pouvons retrouver : la gestion du panier, les coupons de réductions, les avis client, les recommandations en fonction de vos achats précédents ou bien de vos caractéristiques (taille, morphologie)…
Ainsi, dans une bibliothèque de modèles, vous accédez à une collection de composants.
Tous ont été testés plusieurs fois sur d’autres projets. Ils sont donc prêts à l’emploi pour de nouvelles créations. C’est en cela qu’ils permettent de gagner un temps non négligeable lors de nouveaux développements.

Utiliser notre pattern library : quels sont les nombreux intérêts pour les porteurs de projets ?

1. Vous développez des fonctionnalités et votre solution + rapidement.
2. Nos experts co-développent avec vous et vos équipes les fonctionnalités dont vous avez besoin, et les personnalisent selon vos objectifs.
3. Chaque composant propose une fonctionnalité, et donc un code largement éprouvé et vérifié par nos experts. Ce qui vous assure un code de bonne qualité.
4. Vous rendez votre application évolutive, car les améliorations en continu sont plus faciles à apporter.
5. Votre application étant divisée en micro-modules, la chasse au bug est beaucoup plus facile. La maintenance aussi !
6. Vous pouvez aussi bénéficier des évolutions des autres clients sur les mêmes patterns.

Bigdata industrie textile mode fashion FBD Model

Afin d’aider les petites entreprises européennes du textile à produire mieux, plus rapidement et plus efficacement, la start-up Fitizzy et son partenaire technologique premaccess contribuent au développement d’une plateforme novatrice financée par l’Union européenne : FBD BModel (Fashion Big Data Business Model).

Lancé en 2017, dans le cadre du programme Horizon 2020, FBD BModel est un portail basé sur la data à destination des différents acteurs du retail, de la mode et du e-commerce. 

Au cœur d’un consortium européen composé de 14 acteurs majeurs, Fitizzy, spécialiste dans la gestion et l’analyse des données morphologiques, met en musique les jeux de données de chacun de ces intervenants. Jeux de données engrangés au fur et à mesure des années et de leurs expériences.

Premaccess, pour sa part, a conçu l’architecture technique de ce projet : développement d’une infrastructure cloud, développement du portail central de FBD BModel, création d’une API, gestion et protections des données… L’architecture déployée est serverless (AWS lambda), scalable en ressources, inventive en fonctionnalités, tout en étant économique sur AWS. 

Découvrez les atouts de ce projet qui entend soutenir l’économie manufacturière à l’échelle de l’Europe.

C’est une réalité depuis quelques années : l’industrie européenne de l’habillement, confrontée pendant longtemps à une réduction drastique et à une délocalisation massive vers l’Asie, tend à se relocaliser. Le “Made in France”, “Made in Europe”… reviennent à la mode.

industrie textile europe

Pour maintenir cette compétitivité, ces PME européennes se sont positionnées contre la production de masse, privilégiant la production à forte valeur ajoutée. Mais compte tenu de leur taille (90% d’entre elles ont moins de 50 salariés), beaucoup ont du mal à créer du lien avec d’autres acteurs de ce marché et elles ne disposent pas d’outils efficaces pour sonder correctement les consommateurs.

Pour répondre à ces besoins, l’Union européenne a décidé de les soutenir à travers le projet innovant FBD BModel. Créé il y a trois ans, FBD BModel est un portail à destination des différents acteurs du retail (consommateur, marques, industriels et chercheurs en R&D) et reposant sur la data. 

Son objectif : permettre le développement d’une production textile personnalisée en Europe, promouvoir les innovations matérielles des PME européennes ayant des réseaux professionnels connectés, et faire progresser le niveau de connaissances de la profession en Europe.

Comment fonctionne cette plateforme basée sur la data

Elle comprend deux sous-systèmes interconnectés basés sur la connaissance :

  • un système de conception interactif,
  • et un système de gestion de la chaîne d’approvisionnement et de la production.

Une fois connecté sur FBD BModel, le professionnel du textile, souhaitant produire une nouvelle collection, se rend dans l’interface “Builder”. Interface dans laquelle il va renseigner plusieurs informations concernant le produit qu’il envisage de réaliser : quel type de produit (polo, veste, pantalon…), pour quelle cible, quelle expérience au toucher (doux, lisse…), quel confort thermique, quels tissus…. 

Pendant cette phase de conception, le produit est présenté en 3D avec les caractéristiques demandées. 

Une gamme de services basés sur les données est mise à sa disposition (recommandation de produits et de conception, sélection de fournisseurs, planification dynamique des tâches, simulation de la production …).

Un espace virtuel étendu est prévu pour afficher et évaluer visuellement les performances « mode » et « fonctionnelles » (confort thermique, confort au toucher …) des produits intégrant le paramètre « mode de vie des consommateurs » dans leur processus de conception.

Ce portail dispose de nombreux atouts : 

  • Il rapproche les acteurs de ce marché (marques, fournisseurs, fabricants, chercheurs), pour + de transparence entre eux.
  • Il permet le développement de petites séries de vêtements fonctionnels innovants par le biais d’une chaîne d’approvisionnement locale basée dans l’Union européenne, et répondant aux exigences personnalisées des consommateurs.
  • Il optimise les activités de la chaîne d’approvisionnement.
  • Il soutient et valorise le savoir-faire local (grâce aux partages de données de chaque acteur, il y a moins de gaspillage dans la chaîne de production).

FBD BModel, un projet européen multiacteurs aux leviers technologiques 

Pour atteindre cet objectif ambitieux, l’Europe a rassemblé 14 partenaires européens de renom (universités, marques, fournisseurs, fabricants). Elle finance ce projet à hauteur de 4 millions d’euros. 

Et pour le mettre en musique, elle a sélectionné la start-up Fitizzy et son partenaire premaccess suite à un appel d’offres.

Fitizzy, expert de la data

Au cœur du consortium de FDB BModel, Fitizzy joue un rôle central. Éditrice française de logiciels dans le domaine du prêt-à-porter, cette start-up a mis au point un algorithme intelligent. Il recommande à l’internaute la taille qui lui convient le mieux en fonction de ses mensurations et des patronages de différentes marques. De grandes marques grand public (Promod, Naf Naf, Celio, Cyrillus, Etam) et professionnelles (Bragard, Mulliez-Flory, RATP) l’utilisent aujourd’hui.

Cette solution :

  • améliore le taux de conversion des ventes de ces entreprises,
  • satisfait le client en lui offrant une expérience utilisateur unique,
  • peut prédire les tendances du secteur de l’habillement selon une approche basée sur les données,
  • réduit drastiquement le taux de retour produit.
fitizzy expert en datas morphologiques industrie mode textile fashion

Pour créer la plateforme digitale FDB BModel, Fitizzy a donc mis à profit cette expertise dans la gestion et l’analyse des données morphologiques et taille/vêtement. Elle a eu en charge « l’intégration plateforme ».

premaccess, l’expert cloud

Premier partenaire technologique de Fitizzy, premaccess a eu en charge la partie “conception technique” de cette plateforme : architecture, définition des besoins fonctionnels, sécurité et notamment des données. Son objectif premier : construire un socle data commun pour l’ensemble des partenaires.

Pour pouvoir créer cet environnement de façon sécurisée, résiliente, performante et à moindre coût, cette entreprise suisse – experte en Intelligence Artificielle, Machine Learning, et en développement cloud, a utilisé les technologies serverless. 

Gestion des datas, des utilisateurs… Comment Fitizzy et premaccess ont développé FBD BModel

Voici un aperçu des actions menées lors de la création de cette plateforme.

Les 3 principes clés adoptés lors de la création de cette plateforme 

  • Une plateforme d’intermédiation pour aider les utilisateurs à franchir les étapes de conception et de production, et à obtenir des résultats rapidement
  • Un processus sûr pour échanger et stocker les données, qui sont nécessaires au calcul pour les utilisateurs finaux
  • Un environnement sécurisé avec un processus de cryptage des données et un processus d’autorisation pour les partager ou non, à un ou une partie des partenaires.

Développement d’une infrastructure unique à l’ensemble des partenaires

Au début du projet, premaccess a mis l’accent sur l’infrastructure informatique pour gérer les différents risques : 

  • risque de non-harmonisation des outils de gestion des données, 
  • risque de surcoût lors de l’élaboration, de la mise en place et la maintenance des services, 
  • risque de défaillance de la plateforme et ses performances, si les différentes bases de données ne sont pas correctement interconnectées.

Pour cela, premaccess a proposé les services AWS pour développer et gérer la plateforme, afin de collecter, rassembler, consolider, utiliser et analyser efficacement les données de chaque partenaire.

Gestion du Data Management Plan afin de veiller que :

  • les partenaires utilisent correctement la plateforme, 
  • intègrent des données sécurisées,
  • toutes les briques développées par les autres partenaires soient intégrées et intégrables à FDB BModel,
  • et surtout que la plateforme soit évolutive et compatible avec les services de données de toute la chaîne d’approvisionnement du projet.

Gestion des utilisateurs et protections des données sur FBD BModel

Un utilisateur appartenant à une entreprise spécifique et ayant un rôle spécifique souhaite accéder à certaines données. L’utilisateur accède à la plateforme web, il se connecte et navigue vers la page contenant les données qu’il souhaite consulter. Cette action génère un appel à une API sécurisée pour récupérer ces données. 

La stratégie est :

  • L’API est appelée et la demande est décorée avec le code d’autorisation de l’utilisateur.
  • Le code d’autorisation de l’utilisateur est vérifié et un tokenId est renvoyé si le code d’autorisation est valide.
  • La demande est maintenant décorée avec le tokenId de l’utilisateur.
  • Le tokenId est vérifié pour déterminer si l’utilisateur a le droit d’exécuter ce type d’opération sur ce type de données.
  • Une fois validé le droit, l’opération de base de données peut être exécutée
  • Le tokenId est échangé par des informations d’identification liées à la portée (locataire) des données autorisées pour cet utilisateur.
  • L’opération de base de données est exécutée avec ces informations d’identification, seules les données autorisées pour ce locataire sont renvoyées.
API protection donnees industie textile data FBD Model

Développement d’une API permettant un transfert de données fluide entre le système de gestion de données cloud et les différentes passerelles

Un utilisateur appartenant à une entreprise spécifique et qui a un rôle spécifique souhaite importer de nouvelles données dans la plateforme :

  • L’utilisateur télécharge ces données sur son bucket autorisé.
  • Une fois ces données téléchargées, un événement est déclenché pour notifier qu’il y a de nouvelles données.
  • Selon les règles spécifiques de l’entreprise, certaines étapes doivent être franchies:
    • Chiffrement
    • Mutation
    • Consolidation
    • Une analyse
  • Une fois les étapes réalisées, ces données peuvent être accessibles dans la plateforme pour le locataire ou d’autres portées si elle a été clairement autorisée par le locataire.
  • Des étapes supplémentaires peuvent être configurées dans le pipeline comme un environnement bêta si le contexte est nécessaire.
  • Le locataire peut être averti par e-mail pendant que le processus est terminé et que les données sont accessibles.

Visualisations numériques des produits

  • en créant des Prototype Produit Textile,
  • en numérisant les tissus proposés par les fournisseurs
  • en numérisant des vêtements : ce qui permet aux marques de visualiser les vêtements qu’elles souhaitent produire via cette interface.

Évolutivité et automatisation

L’objectif principal du projet est de cibler les opportunités d’affaires grâce à un service innovant. C’est pour cela qu’il a été pensé évolutif dans le temps. 

Exemple de stratégie CI / CD sur AWS :

exemple stratégie CI CD AWS

Par ailleurs, si la plateforme est utilisée par de nombreux utilisateurs et génère, par conséquent, un trafic important, elle est capable d’adapter son infrastructure (en augmentant les instances) pour s’adapter à la nouvelle demande requise. Idem lorsque le trafic diminue.

Grâce à ce processus, le coût de l’infrastructure est directement impacté.

FBD Model Plateforme AWS scalable

Pour Fitizzy et premaccess, FBD BModel a été une excellente opportunité :

  • de gérer un ensemble de données volumineux et complexes,
  • d’utiliser les technologies de pointe disponibles sur le marché, de créer une application évolutive ambitieuse tout en maximisant les coûts.
  • de travailler avec différents types d’acteurs européens 

Ce projet européen doit s’achever en 2021. Mais la technologie développée n’en est qu’à ses débuts. Affaire à suivre donc… 

Quels sont les partenaires du projet FBD BModel ?

L’ENSAIT (École Nationale Supérieure des Arts et Industries Textiles)
The University of Manchester
University of Borås
Center for Management Research of Deutsche Institute für Textilund
Faserforschung Denkendorf (DITF) : Centre de recherche en gestion des instituts allemands de recherche sur le textile et les fibres Denkendorf
Grado Zero Espace : PME italienne de conception et de prototypage)
Bivolino : fabricant belge de vêtements, spécialisé dans les chemises sur mesure.
Desap System Solutions Limited : société de développement d’applications mobiles et de solutions technologiques.
Fitizzy : solution de recommandation de taille omnicanale.
Azadora S.r.l. : créateur de collections de vêtements moderne, technologique et polyvalent en contact étroit avec les grandes maisons de couture italiennes et internationales. 
Kuvera S.p.a. : fabricant d’accessoires de mode.
Beste S.p.a. : manufacture textile.
BeWARRANT : société de conseil en finance d’entreprise.

aws video streaming live console amazon cloud aws amazon contrat client machines virtuelles bases de données

Depuis 2019, My Tour Live vous propose des visites guidées à distance, comme si vous y étiez. Misant sur la vidéo 360° et sur l’interactivité, ce service est aujourd’hui prisé par des secteurs B2B comme l’immobilier, et B2C comme la culture. 

Un an après son lancement, My Tour Live a migré de Google Cloud vers AWS, épaulé par premaccess. Son objectif : s’ouvrir à un marché international encore plus large en touchant notamment la Chine (ce qui n’est pas le cas avec Google Cloud) et disposer d’une infrastructure cloud scalable grâce aux microservices d’AWS. Franck Adraï, son fondateur, revient sur la genèse du projet, et sur les atouts de cette innovation.

Comment est née My Tour Live ?

Franck Adraï, fondateur de l'application My Tour Live (video streaming 360 aws services web)

J’étais encore en expatriation en Polynésie française, à Tahiti, quand l’idée de My Tour Live est née. Nous étions en 2017. Je préparais mon retour en France métropolitaine. Et je me demandais comment accéder à la visite de lieu en étant éloigné. De manière inconsciente ou consciente, l’éloignement de Tahiti, la difficulté d’accès… m’ont poussé à réfléchir à ce projet.

À cette époque-là, Facebook Live et les lives streaming existaient déjà. Et nous parlions déjà de vidéos 360°. Les internautes pouvaient interagir lors des lives streaming, mais pas devant une vidéo 360°.

À mon retour en France, j’ai suivi un Executive MBA à Lausanne. Durant cette formation, j’ai affiné cette idée. Et j’ai créé My Tour Live en 2018.

En quoi My Tour Live est-il aujourd’hui un service novateur ?

Cette application est une combinaison de 5 facteurs : la caméra action, l’immersion de l’internaute/visiteur à 360°, l’accès à un lieu à distance, le live streaming et l’interaction avec le présentateur/guide. 

plateforme de streaming sécurisée diffusion de contenu video recorder  service web authentification
mytourlive video à la demande aws service cloud media services

Aujourd’hui, votre solution est prisée par des secteurs du B2B et du B2C.

En effet, côté B2B, nous touchons le secteur de l’immobilier. Avec le confinement, il a été impossible pour les agences immobilières d’organiser des visites de biens. Avec My Tour Live, plusieurs d’entre elles ont permis à leurs clients de visiter des logements à distance tout en répondant à leurs questions en temps réel. 

Côté tourisme, l’hôtellerie s’intéresse à notre application à des fins de promotion et d’aide à la vente. Quoi de mieux qu’une visite immersive pour présenter ses structures d’accueil à distance et pour donner envie ?

En B2C, la solution plaît aux entreprises culturelles comme les musées et les offices de tourisme qui y voient un moyen de promouvoir une destination (en donnant un avant-goût) et de développer leurs offres de visites guidées. Nous travaillons notamment avec le Musée Ziem, à Martigues, sur ce type de services. Lors de ces visites, les internautes sont ainsi immergés dans un lieu sans y être, se baladent avec un guide et entrent en interaction avec lui en temps réel, ce qui humanise l’expérience. 

Vous avez sollicité premaccess pour votre migration sur AWS.

La première version de notre application, lancée en 2019, avait été déployée sur Google Cloud. Après un an d’activité, nous avons décidé de basculer sur AWS pour deux raisons : 

1. Google Cloud n’est pas disponible partout dans le monde, et notamment en Chine. Nous souhaitions être présents dans cette région du monde. Ce que nous permet Amazon Web Service. 

2. Par ailleurs, en tant que cloud provider, AWS propose davantage de microservices sur sa plateforme. Ce qui est intéressant quand vous souhaitez scaler progressivement votre business.

Sur ce projet, premaccess nous a épaulé. Hébergée comme nous au sein de Marseille Innovation, son équipe est spécialisée dans les infrastructures cloud, avec une expertise particulière sur AWS, et a une réelle culture start-up. Ce sont de réels atouts pour notre projet.

Lors de votre passage de Google Cloud à AWS, avez-vous reconstruit l’ensemble de votre application ?

Nous n’avons pas refait le travail deux fois, bien sûr. En revanche, nous avons retravaillé des briques et des fonctionnalités en particulier. 

premaccess nous a apporté son expertise et nous a donné les clés d’entrée sur AWS. Sur cette partie, son équipe nous a accompagnés :

  • Lors de la migration depuis GCP avec Firebase et Brightcove vidéo vers les services AWS (Amplify AWS / AWS Media).
  • Lors du développement d’un module fonctionnel de gestion des invitations. La question que nous nous sommes posée : comment faire pour que les invités n’aient accès qu’à cette session et pas une autre ? Se posent ici des interrogations liées à la gestion des droits des utilisateurs. premaccess a géré cette partie en combinant 4 services AWS (Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS) et en générant des fonctions Lambda Trigger.
  • Lors de la migration du service Brightcove vers AWS Elemental pour le streaming vidéo. AWS Elemental MediaLive est un service de traitement vidéo en direct. Il permet de créer des flux vidéo de haute qualité en vue d’une diffusion sur les télévisions et les appareils multiécrans connectés à Internet (télés connectées, tablettes, smartphones…). Il permet la VOD et le Full Live.

Après deux ans d’existence, l’application My Tour Live a prouvé qu’elle répondait à un réel besoin sur le marché. Quels sont vos projets à venir ?

Nous cherchons toujours à améliorer notre plateforme, à ajouter des modules fonctionnels, à migrer d’autres modules externes vers des services existants sur AWS. En clair, nous envisageons d’utiliser de plus en plus les services de ce cloud provider. Objectifs : accroître notre offre et le business de la vidéo 360°.

apps application cloud service de streaming web application

Pour en savoir + sur My Tour Live :

Comment cette application propose-t-elle, sur AWS, un service de vidéos en streaming ?

My Tour Live est une combinaison de 5 facteurs : la caméra action, l’immersion de l’internaute/visiteur à 360°, l’accès à un lieu à distance, le live streaming et l’interaction avec le présentateur/guide. 

Quelles sont les solutions disponibles pour traiter du contenu vidéo à la demande sur AWS ?

Amazon Web Services (AWS) propose deux solutions multimédias permettant de fournir aux publics à travers le monde du contenu vidéo à la demande (VOD) à des coûts avantageux à l’aide du Cloud AWS : Video on Demand on AWS Foundation et Video on Demand on AWS.
Pour en savoir + : https://aws.amazon.com/fr/solutions/implementations/video-on-demand-on-aws/

AWS Elemental Media Live, service de traitement vidéo

Ce service encode vos flux vidéo en direct en temps réel, en utilisant une source vidéo en direct de grande taille et en la compressant en des versions plus petites en vue d’une diffusion à vos utilisateurs. Avec AWS Elemental MediaLive, vous pouvez facilement configurer des flux pour des événements en direct et des canaux fonctionnant 24 h sur 24 et 7 j sur 7, en profitant de fonctionnalités de diffusion avancées, d’une haute disponibilité et d’une tarification à l’utilisation.
Pour en savoir + : https://aws.amazon.com/fr/medialive/

aws re:invent recapitulatif 2020

Depuis le 30 novembre et jusqu’au 18 décembre, AWS re:Invent 2020 se déroule 100% en ligne. Entre les conférences, les leadership sessions, et les ateliers, il y a eu pléthores d’annonces et de nouveaux services présentés. Vous les avez ratés ?!
Voici les essentiels !

Le programme re:invent 2020

https://www.premaccess.com/aws-reinvent-2020-les-rendez-vous-a-ne-pas-manquer-en-anglais-en-francais/

Pre-re:Invent 2020

AWS Network Firewall, un nouveau service de pare-feu réseau géré à haute disponibilité pour votre cloud privé virtuel (VPC) 

Il permet de déployer et de gérer facilement l’inspection, la prévention et la détection des intrusions. Il s’adapte automatiquement à votre trafic, garantissant une haute disponibilité sans investissement client supplémentaire dans l’infrastructure de sécurité.

Avec ce service, vous pouvez mettre en œuvre des règles personnalisées pour empêcher vos VPC d’accéder à des domaines non autorisés, pour bloquer des adresses IP ou pour identifier une activité malveillante. AWS Network Firewall rend l’activité du pare-feu visible en temps réel via les métriques CloudWatch.

https://amzn.to/3pF0igJ

Amazon S3 Storage Lens, solution d’analyse du stockage dans le cloud

Elle vous permet d’avoir une visibilité sur le stockage d’objet à l’échelle de votre organisation. 

Cet outil combine plusieurs jeux de données afin de vous aider à découvrir des anomalies, à identifier les économies de coûts à réaliser et à appliquer les meilleures pratiques en matière de protection des données. 

Via ses tableaux de bord, vous visualisez facilement les recommandations exploitables. https://amzn.to/3ffw3Z5

AWS Backup, sauvegarde entre comptes

À l’aide d’AWS Backup, vous pouvez sauvegarder sur plusieurs comptes AWS à la demande ou automatiquement dans le cadre d’un plan de sauvegarde planifié. La sauvegarde entre comptes est précieuse. 

Cette documentation vous explique pas à pas comment les réaliser avec AWSBackup (comment créer un coffre-fort de sauvegarde, attribuer une clé principale client…).

https://amzn.to/3kKUIpp

Network Load Balancer prend désormais en charge la version 6 du protocole Internet (IPv6)

Avec cette nouvelle fonctionnalité, vous pouvez prendre en charge les connexions clients IPv6 sans modifier votre application. Votre Network Load Balancer convertit de manière transparente le trafic IPv6 en trafic IPv4 avant de l’acheminer vers les cibles backend.

https://amzn.to/2Jfpyt8

La version 2 du moteur de requêtes d’Amazon Athena est désormais disponible 

Cette nouvelle version comporte plusieurs améliorations de performances et nouvelles fonctionnalités comme :

  • les requêtes fédérées, 
  • la prise en charge de l’évolution des schémas, 
  • les fonctions géospatiales supplémentaires, 
  • la prise en charge de la lecture des schémas imbriqués afin de réduire les coûts
  • et les améliorations de performances pour les opérations JOIN, ORDER BY et AGGREGATE.

https://amzn.to/3makJjp

Vous pouvez désormais utiliser un langage de requête compatible SQL pour interroger, insérer, mettre à jour et supprimer des données de table dans Amazon DynamoDB

PartiQL est un langage de requête compatible SQL. Il facilite l’interaction avec DynamoDB et l’exécution de requêtes dans AWS Management Console. 

https://amzn.to/3m7cV1W

Modules pour AWS CloudFormation

Pour simplifier votre gestion des ressources à travers AWS CloudFormation, vous pouvez désormais utiliser les modules. 

Les modules sont des blocs de construction réutilisables. Ils simplifient l’utilisation des ressources spécifiques dont vous avez besoin tout en maintenant les configurations de ressources alignées sur les meilleures pratiques organisationnelles. 

https://amzn.to/3m8B349

CodeSigning

Avec ce service, vous pouvez désormais vous assurer que seul du code approuvé et vérifié est déployé dans vos fonctions AWSLambda.

La signature de code est une technique utilisée pour confirmer que le code provient d’un éditeur de confiance.

Code Signing aide les administrateurs à faire en sorte que seuls les packages de code signé d’éditeurs de confiance s’exécutent dans leurs fonctions Lambda

et que le code n’a pas été modifié ou falsifié depuis la signature. https://amzn.to/3lgP6DT

Re:invent 2020 – Semaine 1 – 30 nov. – 4 déc.

Instance Amazon EC2 pour macOS

Nous pouvons désormais utiliser des instances Mac Amazon EC2 pour créer et tester des applications macOS, iOS, ipadOS, tvOS et watchOS 

Ces instances disposent d’un processeur Intel Core i7 (Coffee Lake) à 6 cœurs de 8e génération.

Du côté du réseau, elles s’exécutent dans un Virtual Private Cloud (VPC).

https://amzn.to/3lq0Q72

AWS Lambda prend désormais en charge jusqu’à 10 Go de mémoire

Nous pouvons désormais allouer jusqu’à 10 Go de mémoire à une fonction Lambda. 

C’une augmentation de plus de 3 fois par rapport aux limites précédentes. 

Lambda alloue le processeur et les autres ressources de manière linéaire proportionnellement à la quantité de mémoire configurée. Cela signifie que nous pouvons désormais avoir accès à jusqu’à 6 processeurs virtuels dans chaque environnement d’exécution. 

https://amzn.to/37vOuFc

AWS Lambda fait passer la granularité de la facturation de la durée de 100 ms à 1 ms

Une bonne nouvelle pour notre portefeuille ! AWS Lambda réduit la granularité de facturation pour la durée de la fonction Lambda de 100 ms à 1 ms.  Cela va baisser le prix de la plupart des fonctions Lambda, plus encore des fonctions de courte durée. 

Ainsi, leur durée de calcul va être facturée par incréments de 1 ms au lieu d’être arrondie à l’incrément de 100 ms le plus proche par appel.

https://amzn.to/3mzCN6N

Présentation de la prochaine version d’Amazon Aurora Serverless en avant-première

Cette nouvelle version offre la possibilité de faire évoluer les charges de travail de base de données vers des centaines de milliers de transactions en une fraction de seconde. 

https://amzn.to/33SGhKD

AWS Lambda prend désormais en charge les images de conteneur en tant que format d’emballage

Avec le service Container Image Support, nous pouvons désormais déployer des fonctions AWS Lambda sous la forme d’image de conteneur d’une capacité maximale de 10 Go.

https://amzn.to/3qvJNnV

Présentation d’Amazon QuickSight Q: posez des questions sur vos données et obtenez des réponses en quelques secondes

Jusqu’à présent, QuickSight permettait aux entreprises de créer et analyser des visualisations de leurs données client en quelques minutes. 

La nouvelle fonctionnalité de ce service « Amazon QuickSight Q », basée sur le machine learning, utilise le traitement du langage naturel pour répondre instantanément aux questions de votre entreprise. Elle est optimisée pour comprendre le langage commercial que vous utilisez quotidiennement dans le cadre de votre travail. 

Ainsi, les utilisateurs peuvent saisir simplement des questions comme « Quel est notre taux de croissance d’une année sur l’autre ?» et obtenir une réponse instantanée sous forme de visualisation. 

https://amzn.to/3lzm2HL

Amazon Monitron, un service simple et économique permettant une maintenance prédictive

Ce nouveau service propose un système de #surveillance des machines de bout en bout pour détecter les anomalies et comportements anormaux. 

Basé sur le machine learning, il peut notamment prédire quand les équipements industriels nécessiteront une maintenance 

https://amzn.to/39ALPNc

Amazon CodeGuru Reviewer annonce des détecteurs de sécurité pour aider à améliorer la sécurité du code

Amazon CodeGuru Reviewer nous aide à identifier les risques de sécurité en recherchant les problèmes critiques, et en soumettant des recommandations pour les corriger.

C’est une fonctionnalité supplémentaire à CodeGuru. Rappelons-le : AmazonCodeGuru est un outil de développement basé sur le machine learning qui fournit des recommandations intelligentes pour améliorer la qualité du code et identifier les lignes de code les plus coûteuses des #applications. 

https://amzn.to/3lEwUE1

Amazon EKS prend désormais en charge la création et la gestion d’instances Spot Amazon Elastic Compute Cloud (Amazon EC2)

Cela vous permet de profiter des économies considérables qu’offrent les instances Spot pour les charges de travail s’exécutant dans votre cluster Kubernetes.

https://amzn.to/3g2y5fv

Présentation de nouveaux volumes à usage général Amazon EBS, GP3

Amazon Elastic Block Store (EBS) est un service de stockage hautes performances et facile à utiliser, conçu pour être utilisé avec les instances Amazon EC2.

Sur ce service, nous pouvons désormais utiliser un nouveau type de volume SSD EBS, gp3. 

gp3 est idéal pour les applications qui nécessitent des performances élevées à faible coût telles que MySQL, Cassandra, les bureaux virtuels…

https://amzn.to/36z2lLI

AWS Amplify annonce une nouvelle interface utilisateur d’administration

Découvrez ses nouvelles fonctionnalités https://amzn.to/3lBSh92

Re:invent 2020 – Semaine 2 – 7 au 11 déc.

Présentation d’Amazon SageMaker Pipelines, premier service CI / CD spécialement conçu pour l’apprentissage automatique

Avis aux développeurs et aux scientifiques spécialistes de machinelearning : AWS apporte une brique supplémentaire à Amazon SageMaker avec Amazon SageMaker Pipelines. SageMaker Pipelines est le premier service CI/CD spécialement conçu pour l’apprentissage automatique. Il permet automatiser et d’orchestrer des flux de travail #ML.

Il propose, par ailleurs (et cela n’est pas négligeable !), les meilleures pratiques DevOps appliquées à l’apprentissage automatique MLOps. 

https://amzn.to/373uT09

Présentation d’Amazon HealthLake

Avec Amazon HealthLake, AWS fait un pas de + dans le secteur de la santé. Son objectif : aider les professionnels à utiliser efficacement l’ensemble des données pour prendre les meilleures décisions en matière de soin.

Les médecins, l’assurance maladie, les pharmacies… collectent des quantités d’infos sur les patients (antécédents, observations cliniques, diagnostics, médicaments). Actuellement, ces données sont réparties sur une multitude de systèmes (dossiers médicaux électroniques, systèmes de laboratoire, etc.) et existent dans des dizaines de formats incompatibles. Pas simple donc.


HealthLake supprime cette lourde tâche d’organisation des données sur chaque patient. Il agrège ces infos à partir de différents silos et formats dans un lac de données AWS centralisé. Il utilise des modèles de machine learning pour normaliser ces données et extraire automatiquement des informations médicales significatives. De quoi mieux diagnostiquer.

https://amzn.to/33YLkco

Amazon Kendra ajoute un connecteur #GoogleDrive

Le  service de recherche intelligente basé sur l’apprentissage automatique Amazon Kendra ajoute désormais un connecteur #GoogleDrive.

Avec AWS, il n’y a pas de frontière. Vous pouvez aller chercher vos données n’importe où ! Objectif : rester ouvert !

https://amzn.to/2VZkDjh

Présentation d’Amazon SageMaker Data Wrangler

La plupart des modèles #ML demandent beaucoup de temps pour agréger des données. Et bien, ce temps est bien révolu grâce à un nouveau service que nous avons découvert la semaine dernière.

Amazon SageMaker Data Wrangler réduit ce temps nécessaire de plusieurs semaines à quelques minutes. Il simplifie le processus de préparation des données et d’ingénierie des fonctionnalités.

À l’aide de son outil de sélection, nous pouvons choisir les datas que l’on souhaite à partir de diverses sources #AmazonS3, #Athena, #Redshift, #LakeFormation… et les importer en un seul clic. 

https://amzn.to/3m2lB91

Zoom sur la conformité avec AWS Audit Manager

Le nouveau service AWS Audit Manager nous aide à auditer en permanence notre utilisation d’#AWS pour savoir si nos systèmes sont conformes aux réglementations et aux normes : #rgpd, #securité, #paiementenligne.

https://amzn.to/3gvB28J

AWS Security Hub s’intègre à AWS Audit Manager

Security Hub nous donne une vue complète de nos alertes de sécurité. Il regroupe nos alertes ou résultats de sécurité provenant de plusieurs services AWS, comme #GuardDuty, #Inspector et #Macie…

https://amzn.to/33Xqc6a

Présentation d’Amazon Redshift ML

Vous pouvez désormais créer, entraîner et déployer des modèles de machine learning dans Amazon Redshift à l’aide de SQL. Cela est possible avec Amazon Redshift ML.

Ce nouveau service a de nombreux avantages :

Il vous permet de créer et de former des modèles ML avec de simples commandes SQL sans avoir à apprendre des outils externes.

Il offre la flexibilité d’utiliser la sélection automatique d’algorithmes.

Il permet aux experts en #ML tels que les #datascientists de sélectionner des algorithmes tels que #XGBoost et de spécifier des #hyperparamètres et des #préprocesseurs.

https://amzn.to/2K4IoDT

3 nouvelles fonctionnalités pour CodeGuru

Prise en charge de Python > Vous pouvez désormais utiliser CodeGuru pour améliorer les applications écrites en Python

Détecteurs de sécurité pour CodeGuru Reviewer > Pour identifier les vulnérabilités de sécurité et vérifier les meilleures pratiques de sécurité dans votre code Java

Profilage de la mémoire pour CodeGuru Profiler > Pour optimiser la façon dont votre application utilise la mémoire.

https://amzn.to/37Rz0vr

Re:invent 2020 – Semaine 3 – 14 au 18 déc.

AWS CloudShell

AWS CloudShell permet d’accéder en ligne de commande aux ressources et outils #AWS directement à partir d’un navigateur.

Avec CloudShell, nous pouvons exécuter rapidement des scripts avec l’AWS Command Line Interface (AWS CLI), expérimenter les API de service AWS à l’aide des kits SDK AWS…

https://amzn.to/2KdzfZZ

Amazon Managed Service for Grafana

Ce service facilite la création d’espaces de travail Grafana à la demande, pour visualiser et analyser votre données provenant de sources multiples.

Grafana est l’une des technologies open source les plus populaires utilisées pour créer des tableaux de bord d’observabilité pour des applications. 

https://amzn.to/3ns4hvJ

Plus d’infos sur re:Invent, rendez-vous :

Qu’est-ce que AWS Re:invent ?

AWS re:Invent est un évènement organisé par Amazon Web Services (AWS) pour la communauté mondiale du cloud computing. L’événement comprend des annonces, des lancements, des sessions et plus encore.

Quand se tient AWS re:Invent 2020 ?

AWS re:Invent 2020 est présenté sur trois semaines, du 30 novembre au 18 décembre 2020. Découvrez l’agenda : https://reinvent.awsevents.com/agenda/

programme aws re:invent 2020

Nous pouvons le dire : cette année, la conférence des partenaires d’AWS se réinvente. Pendant trois semaines, du 30 novembre au 18 décembre, AWS re:Invent 2020 vous propose d’assister à des conférences et ateliers tranquillement depuis votre bureau ou canapé. L’ensemble de ces rendez-vous sera disponible en ligne, entièrement gratuitement.

Voici les keynotes attendues :

  • Mercredi 2/12 – 9h (CET / GMT +1) – Keynote générale, par Andy Jassy, CEO d’AWS.
  • Jeudi 3/12 – 9h (CET / GMT +1) – Keynote partenaires, par Doug Yeum, head of Worldwide Channels and Alliances; Sandy Carter, VP Global Public Sector Partners & Programs; et Dave McCann, VP AWS Migration, Marketplace, & Control Services.
  • Mercredi 9/12 – 9h (CET / GMT +1) – Keynote Apprentissage Automatique et Intelligence Artificielle, par Swami Sivasubramanian, VP Amazon Machine Learning.
  • Vendredi 11/12 – 9h (CET / GMT +1) – Keynote Infrastructure, par Peter DeSantis, SVP Global Infrastructure & Customer Support.
  • Mercredi 16/12 – 9h (CET / GMT +1) – Keynote Architecture, par Dr. Werner Vogels, VP & CTO AWS.
reinvent aws keynote partners

Les Leadership Sessions

19 Leadership Sessions sont également programmées. Ces sessions sont l’occasion d’entendre directement les leaders AWS sur les dernières avancées technologiques d’AWS.

https://reinvent.awsevents.com/leadership-sessions/

reinvent leadership sessions

Les GPS Breakout Sessions

15 sessions en petits groupes, d’une durée de 30 minutes, sont proposées afin que vous puissiez poser vos questions à un panel d’experts. Pensez à vous y inscrire !

  • Naviguez avec succès dans le parcours du partenaire conseil (GPS201)
  • Offrez un lieu de travail numérique sécurisé à vos clients (GPS 202)
  • Modernisation de la base de données avec AWS Consulting Partners (GPS203)
  • Accélérez les migrations avec le programme de migration de la charge de travail ISV (GPS204)
  • Fournir des services professionnels dans un monde COVID-19 (GPS205)
  • Au-delà de l’infrastructure pour stimuler votre activité SAP (GPS206)
  • Comment vendre sur AWS Marketplace (GPS207)
  • Perspectives et inspiration de ceux qui sont sur le chemin de la transformation (GPS208)
  • Modernisez les bases de données et les applications avec le programme Database Freedom pour les éditeurs de logiciels indépendants (GPS209)
  • Co-vente pour les intégrateurs de systèmes (GPS210)
  • Les partenaires AWS stimulent l’innovation avec COVID-19 (GPS211)
  • Co-vente pour les éditeurs de logiciels indépendants (GPS212)
  • Combler le déficit de compétences cloud en créant une main-d’œuvre diversifiée et dynamique (GPS213)
  • Passer au «all-in» – Exploiter tout le potentiel du cloud (GPS214)
  • Comment organiser virtuellement des ateliers clients et des webinaires efficaces (GSP302)

Du contenu en français

Enfin, dans son dernier article de blog, l’expert AWS Sébastien Stormacq nous indique que plusieurs sessions se tiendront en français. En voici quelques-unes :

  • Une application résiliente, dans un monde partiellement dégradé, par Pascal Martin, Bedrock / M6
  • Construire des workflows complexes de calcul avec AWS Step Functions et AWS Fargate, par Roberto Migli, AWS
  • DevSecOps, Inclure la sécurité dans un flux CI/CD, par Dany Poudrier, AWS & Laurent Jalbert-Simard , pokia.io
  • Architecturer sa gouvernance sur AWS : de Zero à Hero, par Walid Benabderrahmane, AWS & Ludovic Tressol, Thales
  • Faire plus avec moins de code en Serverless, par Jérôme Van Der Linden, AWS

Pour en savoir + à ce sujet, rendez-vous sur cet article de blog : https://aws.amazon.com/fr/blogs/france/du-contenu-en-francais-pendant-reinvent-2020/

Plus d’infos sur re:Invent, rendez-vous :

Bon re:Invent à tous !

Qu’est-ce que AWS Re:invent ?

AWS re:Invent est un évènement organisé par Amazon Web Services (AWS) pour la communauté mondiale du cloud computing. L’événement comprend des annonces, des lancements, des sessions et plus encore.

Quand se tient AWS re:Invent 2020 ?

AWS re:Invent 2020 est présenté sur trois semaines, du 30 novembre au 18 décembre 2020. Découvrez l’agenda : https://reinvent.awsevents.com/agenda/

Faut-il s’inscrire pour accéder à cet évènement ?

Oui. En vous inscrivant à re:Invent, vous aurez accès à des keynotes, des sessions de leadership et plus de 500 sessions en petits groupes, ainsi que la possibilité de vous connecter avec des experts AWS, des partenaires et plus encore.

quels sont les avantages du cloud computing amazon cloud stockage dans le cloud  réduction des coûts disponibilité des infrastructures

Basculer l’ensemble de l’activité sur le cloud ? Oui, mais pourquoi ? Comme beaucoup d’entreprises, premaccess s’est posée cette question. Créée en 2007, elle est aujourd’hui experte en développement d’applications Platform/Serverless/SaaS et en services managés cloud – notamment avec sa solution d’orchestration d’infrastructure BAM (Build Automation  Machine). Mais, il n’en a pas toujours été ainsi. 

Spécialisée initialement dans l’hébergement premium de données sensibles (bancaire, santé, trading, ads…), premaccess décide de migrer l’ensemble de son activité sur le Nuage en 2015. L’innovation technologique fait partie de son ADN. Difficile pour elle de fermer les yeux sur l’arrivée des cloud providers sur le marché.

Entre la mise en place d’une stratégie cloud, la réflexion sur le business model et la formation des équipes à ces nouvelles technologies, l’ex-hébergeur a mis près de 5 ans pour être 100% cloud. L’entreprise fermera son tout dernier datacenter en décembre prochain. 

À la différence des prestataires « cloud natives », premaccess a vécu l’itinéraire que suit toute entreprise qui réalise la bascule « On premise » vers le nuage. Une expérience que ses équipes ont transformée en force. Ce savoir-faire est aujourd’hui utile pour accompagner au mieux leurs nouveaux clients dans cette aventure. 

Falco Schmutz, CEO de premaccess, revient sur cette migration sur le cloud d’AWS. D’après lui, pour tout membre d’une DSI, « participer à la mise en place une architecture cloud demande de prendre du recul par rapport à son propre métier, voire d’en renaître. »

Quels services proposiez-vous au sein de premaccess avant votre passage sur le cloud ?

Falco Schmutz

« Avant notre bascule sur le cloud, nous étions spécialisés dans l’hébergement premium de données sensibles. Nous développions, pour nos clients, des infrastructures sur-mesure que nous hébergions sur nos datacenters, et nous leur proposions des services techniques comme la haute-disponibilité multisites, les services managés…

Nous avons effectué ce métier pendant près de 14 ans. »

Migrer vers le cloud : cela était-il évident pour vous dès l’arrivée des cloud providers sur le marché français ?

« Pas forcément ! Début 2016, un membre de premaccess m’informe de l’arrivée d’AWS en France. Il m’interroge : « Souhaite-t-on y aller ? ». À l’époque, j’étais plutôt réticent. Certainement, car j’étais à l’aise dans mon activité, dans l’offre proposée à mes clients…

Mais, j’ai très vite changé d’avis. Deux mois après, je participe à une formation AWS. Formation de trois jours au cours de laquelle je rencontre les DSI de plusieurs grands groupes français. Ces trois jours d’initiation aux outils AWS ont été révélateurs. (Merci à Boris Lecoeur et Arnaud Lemperreur de m’avoir convaincu 🙂 ) J’ai pris conscience de la force d’innovation de ce cloud provider, de sa capacité à réinventer notre métier. J’ai compris qu’il incarnait l’avenir. Et j’ai aussi ouvert les yeux sur notre métier d’hébergeur : si nous continuions comme cela, nous risquions de prendre du retard face à la concurrence, et d’être dans l’incapacité d’innover.

Chez premaccess, nous sommes des mordus de technologie et d’innovation. Fermer les yeux sur l’arrivée des cloud providers en France, c’était aller à l’encontre de notre vision et de la promesse que nous faisons à nos clients : celle de les accompagner vers ce qui est le plus adapté et le mieux sur le marché. Se lancer sur le cloud, c’était suivre nos convictions ! »

Comment avez-vous procédé lors de votre migration vers le cloud ? Quelles ont été les différentes étapes franchies pour mener à bien ce projet ?

ressources informatiques services de cloud computing stockages des données charges de travail externalisation

« Notre 1ère réflexion s’est portée sur notre stratégie : part-on sur une stratégie cloud ou bien multi-cloud ? Très vite, nous avons choisi d’adopter une stratégie cloud 100% AWS, car nous aimons l’ADN de ce fournisseur. AWS est toujours à la recherche de la nouvelle innovation pertinente. 

Notre 2e réflexion s’est portée sur notre business model car basculer sur le cloud nous a demandé de le réinventer. Dans ce virage numérique, nous avons beaucoup appris. Nous transmettons ce savoir désormais à nos clients. Sur le cloud, vous êtes dans « l’utilisation à l’usage ». Ce qui diffère avec la logique d’un choix d’achat de logiciel… Ainsi, nous sommes désormais en capacité de répondre aux différentes questions que se posent nos clients sur la gestion financière de leur infrastructure cloud : « Comment facture-t-on sur le cloud », « comment puis-je faire pour que le business de mon entreprise utilise ces technologies à leur juste mesure ? »… Nous avons développé de fortes compétences en FinOps.

Enfin, notre 3e réflexion a concerné la formation des équipes. Créer des architectures cloud demande de l’expertise. Il a fallu que nous formions et modernisions nos équipes. Nous avons beaucoup investi de temps dans la formation, dans des bootcamps, et dans les certifications. Clairement, migrer votre infrastructure sur le cloud implique un changement de paradigme : vous passez du métier d’ingénieur système réseau à devOps. Ce qui n’est pas à la portée de tous. »

Quels sont, d’après vous, les bénéfices du cloud pour une entreprise ? 

« J’en vois 3 majeurs :

Innovation de vos offres : Grâce au cloud, vous accédez facilement à la technologie. La myriade de microservices disponibles sur le cloud d’AWS vous permet de tester de nouvelles offres plus rapidement avant de les mettre sur le marché. Il vous permet de réduire vos cycles d’innovation. Cela est un bénéfice primordial à l’heure de la transformation digitale des entreprises.

Automatisation : vous pouvez piloter plus simplement vos infrastructures. De quoi faire gagner du temps à vos équipes techniques (encore plus avec une solution comme BAM qui nous avons développé pour faire cette migration et la rendre accessible à nos clients).

Sécurité : les cloud providers disposent d’une liste de conformités (compliances) incroyables. Quand on sait le temps que cela implique en termes de régulation, de vérification, de sécurité… Il est impossible de tenter de les concurrencer dans ce domaine. »

Quels conseils souhaiteriez-vous donner aux entreprises qui envisagent de migrer sur le cloud ?

avantage de la solution mutualisation sécurisées authentification synchronisation chiffrement protection des données bases de données

« Mon premier conseil concerne l’investissement humain. Ne sous-estimez pas le temps que cela demande de se former, de changer les mentalités, d’engager les équipes pour qu’elles s’approprient ce nouveau projet. N’hésitez pas à trouver des ambassadeurs, acteurs de ce changement, au sein de vos équipes.

Deuxième conseil : Ne sous-estimez pas l’apport des personnes qui ont migré leur infrastructure sur le cloud avant vous. Elles savent de quoi vous parlez, elles comprennent parfaitement les difficultés que vous rencontrez (techniques et humaines).

Enfin, mon troisième conseil portera sur la partie financière : en migrant sur les technologies cloud, vous obtiendrez un gain à long terme. Il ne faut pas s’attendre à ce que cela ait un impact sur vos finances tout de suite. Ce type de projet demande beaucoup de changements. Pendant un temps, par exemple, vous pouvez vous retrouver avec des doublons d’infrastructures sur un hébergement classique et sur un hébergement cloud. Par ailleurs, les équipes doivent être prêtes, formées pour porter de nouveaux projets avec ces nouveaux outils techniques. En fonction de la taille de votre structure, vous aurez un gain financier significatif au bout de 3 à 6 ans. »

Maintenant « Advanced consulting partner AWS », premaccess accompagne de nombreuses entreprises dans leur projet de migration. Son équipe marque la différence par rapport aux concurrents « 100% cloud natives » : 

  • Elle connaît le métier d’AWS sur le bout des doigts.
  • Elle comprend les enjeux d’un tel projet pour une entreprise, pour l’avoir elle-même expérimenté.

Aussi, si vous souhaitez migrer toute ou une partie de votre activité sur le cloud, n’hésitez pas à vous entourer d’experts dans ce domaine. 

Migration cloud : quelles sont les principales étapes ?

#1 Visualisez le panorama
#2 Entrez dans un nouveau monde
#3 Envisagez la phase de Build
#4 Garantissez la continuité du business
#5 Maîtrisez sa phase de Run
#6 Faites confiance aux experts DevOps / Developpeurs
#7 Choisissez la région la plus proches de vos besoins

Pour en savoir https://www.premaccess.com/migration-aws/

Vers quelles solutions cloud s’orienter ?

Il existe aujourd’hui quatre modèles de Cloud computing. Chaque modèle représente une partie différente de la pile de ce Cloud. Du Iaas (Infrastructure as a service) au Saas (Software as a service), ces modèles répondent à des besoins bien différents en entreprise. 

Le choix de la solution adéquate se fera en fonction de la taille de votre structure, des solutions que vous souhaitez héberger, des besoins que vous énoncez, des compétences dont vous disposez en interne, et du coût que vous envisagez.

Tout dépendra également de votre implication dans le projet : souhaitez-vous garder la main sur vos applications ou jugez-vous opportun de les remettre partiellement ou totalement entre les mains d’experts ?

Iaas (Infrastructure as a service) 
L’infrastructure en tant que service (IaaS) contient les blocs de construction fondamentaux de l’informatique dans le Cloud. Il permet aux entreprises d’externaliser juste leur infrastructure informatique (réseaux, serveurs, stockage de données, etc.). Le service IaaS offre le niveau le plus élevé de flexibilité. En revanche, en raison de cette flexibilité, les entreprises, qui ont souscrit à ce modèle, sont responsables de leurs applications, de leurs données et de leur système d’exploitation.

Paas (Platform as a service) 
Grâce au service PaaS, les entreprises n’ont plus besoin de gérer l’infrastructure sous-jacente (le matériel et les systèmes d’exploitation). Elles peuvent se concentrer sur le déploiement et la gestion de leurs applications. Elles n’ont plus à se soucier de l’approvisionnement des ressources, de la planification des capacités, de la maintenance logicielle, de l’application de correctifs ou de toute autre charge indifférenciée liée à l’exécution de votre application. Dans ce cas de figure, l’entreprise loue l’exploitation des serveurs et des services intégrés.

Faas (Function as a Service)
Ce service Cloud permet de déployer une fonction unique de logiciel en serverless. Le FaaS est utilisé pour la création de microservices et API. Dans ce cas, la facturation est basée sur les volumes de fonctions exécutées et non sur la taille des instances de serveur. Les développeurs peuvent ainsi se concentrer sur l’écriture du code, sans avoir à gérer la logistique, les serveurs et les applications.

Saas (Software as a service) 
Le logiciel en tant que service propose un produit géré et exécuté par le Cloud provider et/ou l’éditeur de la solution. Avec une offre SaaS, une entreprise n’a plus à se soucier de la maintenance du service ou de la gestion de l’infrastructure sous-jacente. Elle n’a plus qu’à réfléchir à l’usage qu’elle peut faire de ce logiciel spécifique. Ce logiciel est accessible à distance 24h/24, grâce à une connexion Internet sécurisée.

Comment migrer votre application vers le cloud ?

Il existe trois méthodes.

Méthode 1. Le « lift and shift » consiste à migrer une application d’un environnement à un autre sans procéder à une quelconque refonte et modification de code.

Méthode 2. Le « replatform » vise à déplacer vos applications vers le Cloud avec une petite mise à niveau, en utilisant une offre de base de données gérée par le Cloud ou en ajoutant l’auto-scaling (élasticité de certaines applications) activé par l’automatisation.

Méthode 3. Le « refactoring » implique un processus plus avancé, vous  demande de repenser l’architecture et le code de vos applications existantes pour pouvoir optimiser des fonctionnalités natives du Cloud.

Quels sont les modèles de déploiement de cloud computing possibles ?

Nous pouvons en citer 3 :

Cloud : Une application basée sur le cloud est entièrement déployée dans le cloud. Tous ses composants sont en outre exécutés dans le cloud. Les applications dans le cloud ont été créées dans le cloud ou migrées à partir d’une infrastructure existante pour tirer parti des avantages du cloud.

Hybride : Un déploiement hybride permet de relier une infrastructure et des applications entre des ressources basées sur le cloud et des ressources existantes qui ne se trouvent pas dans le cloud. 

Sur site : Le déploiement de ressources sur site à l’aide de la virtualisation et d’outils de gestion des applications est parfois appelé « cloud privé ». Le déploiement sur site ne présente pas les avantages qu’offre le cloud computing, mais il est parfois souhaité pour sa capacité à fournir de ressources dédiées.

conformité des données rgpd cloud cnil

Depuis son application en mai 2018, le Règlement Général sur la Protection des Données (RGPD, dit GDPR en anglais « General Data Protection Regulation ») impose davantage de rigueur et de transparence dans le traitement des données personnelles sur les plateformes numériques (sites, applications, etc.). 

Quelle que soit votre activité (grande entreprise, organisation publique…), vous êtes amené à traiter des données à caractère personnel via vos systèmes d’information. Mais employez-vous correctement les “best practices” en matière de sécurité et de conservation des datas ? 

Si vous avez déployé votre infrastructure sur un cloud public (AWS, Google Cloud, Azure, etc.), le principe de la responsabilité partagée s’applique dans la mise en oeuvre de cette conformité. En clair : le cloud provider est responsable de la sécurité du cloud. En tant qu’utilisateur, vous êtes responsable du traitement des données, de votre sécurité et de votre conformité sur cet espace.

RGPD données personnelles AWS Responsabilité partagée cloud responsable du traitement

Bien conscients de la difficulté que cela représente, les cloud providers ont créé plusieurs outils pour vous permettre d’être en règle. C’est le cas d’AWS. 

Qui doit appliquer le RGPD ? Qu’entend-on par données personnelles ? Comment les chiffrer ? Comment mettre en place une surveillance et un contrôle d’accès ? Découvrez, dans cet article, l’ensemble des informations pour y voir + clair sur ce vaste sujet, ainsi que les services disponibles chez AWS pour être « RGPD friendly ». 

Qui est concerné par le RGPD ? Qu’est-ce qu’une donnée personnelle ?

Avant toute chose, redéfinissons ce règlement et ce qu’est une donnée personnelle. 

Le Règlement Général sur la Protection des Données

Il encadre le traitement de données personnelles sur le territoire de l’Union européenne. Il renforce le contrôle par les citoyens de l’utilisation qui peut être faite des données les concernant. Il harmonise ce sujet à l’échelle de l’Europe. 

Toute organisation, publique et privée, qui traite des données personnelles pour son compte ou non, est concernée par ce texte dès lors  :

  • qu’elle est établie sur le territoire de l’Union européenne,
  • et/ou que son activité cible directement des résidents européens.

La donnée personnelle

C’est une information à partir de laquelle un individu peut être identifié ou identifiable.

RGPD données personnelles Consentement données personnelles formulaire

Une personne peut être identifiée :

  • directement (exemple : nom, prénom)
  • ou indirectement (identifiant, n° client, numéro de téléphone…).

L’identification peut être réalisée :

  • à partir d’une seule donnée (numéro de sécurité sociale…)  
  • à partir du croisement d’un ensemble de données.

La protection de ces données sensibles repose sur 5 grands principes applicables sur tout support, qu’il soit numérique ou non :

  • Le principe de finalité : la collecte a un but bien précis.
  • Le principe de proportionnalité et de pertinence : nous ne récoltons que les données dont nous avons besoin.
  • Le principe d’une durée de conservation limitée : il n’est pas possible de conserver des informations sur des personnes physiques pour une durée indéfinie. Une durée de conservation précise doit être fixée, en fonction du type d’information enregistrée et de la finalité du fichier.
  • Le principe de sécurité et de confidentialité : vous devez garantir la sécurité et la confidentialité des informations que vous détenez. Vous devez en particulier veiller à ce que seules les personnes autorisées aient accès à ces informations.
  • Les droits des personnes et le principe de consentement : les personnes concernées doivent être informées de la manière dont leurs données sont traitées et elles doivent pouvoir donner leur consentement.

RGPD & données personnelles : les droits fondamentaux des utilisateurs et vos obligations  

Nous pouvons vous en citer 4 :

Droit à la portabilité des données :

Les individus ont le droit de copier toutes les données personnelles que vous avez à leur sujet. Ces données doivent être fournies de manière à faciliter leur réutilisation.

Droit à l’oubli :

Cela donne aux individus le droit de réclamer l’effacement de certaines données personnelles, de façon à les rendre inaccessibles à des tiers.

Protection des données dès la conception :

Dès la phase initiale de conception d’un service, vous devez respecter les règles, recommandations et consignes en rapport avec la protection des données.

Notification en cas de fuite de données :

En cas de fuite de données, vous devez notifier l’autorité de supervision concernée dans les 72 heures. S’il y a un risque élevé d’atteinte aux droits et libertés des individus, vous devez également les informer.

AWS centre reglement general protection données rgpd

Le cloud AWS respecte-t-il le RGPD ?

OUI

Lors de l’entrée en vigueur de ce règlement européen, en 2018, AWS a réalisé un audit de conformité au RGPD certifiant que l’ensemble de ses services et fonctionnalités respectent bien les normes les plus élevées en matière de confidentialité et de protection des données personnelles. 

Par ailleurs, ce cloud provider dispose de certifications : ISO 27017 dédiée à la sécurité du cloud computing, et ISO 27018 dédiée à la protection des données personnelles dans le Cloud.

Quels sont les services proposés par AWS pour aider à vous  mettre en conformité avec le RGPD ?

En fonction de vos besoins, voici plusieurs services et fonctionnalités mises à votre disposition par AWS pour respecter les exigences du texte européen.

Chiffrez vos données 

  • Chiffrement de vos données au repos avec AES256 (EBS/S3/Glacier/RDS)
RGPD Chiffrement des données personnelles outils AWS
  • Gestion centralisée des clés via Key Management Service (par région AWS)
  • Tunnels IPsec vers AWS avec les passerelles VPN
  • Modules HSM dédiés dans le cloud avec AWS CloudHSM

Contrôle d’accès : restreignez l’accès aux ressources AWS aux administrateurs, utilisateurs et applications autorisés

  • Accès granulaire fin aux objets dans des compartiments Amazon S3 / Amazon SQS/ Amazon SNS et d’autres services
Contrôle d'accès : restreignez l'accès aux ressources AWS aux administrateurs, utilisateurs et applications autorisés

Surveillance et fichiers journaux : obtenez une présentation des activités concernant vos ressources AWS

  • Gestion et configuration des ressources avec AWS Config
Surveillance et fichiers journaux : obtenez une présentation des activités concernant vos ressources AWS
  • Audits de conformité et analyses de sécurité avec AWS CloudTrail
  • Identification des difficultés de configuration avec AWS Trusted Advisor
  • Fichiers journaux granulaires fins des accès aux objets Amazon S3

  • Informations détaillées sur les flux du réseau via Amazon VPC-FlowLogs
  • Vérifications et actions de configuration reposant sur des règles avec AWS Config Rules
  • Filtrage et surveillance des accès HTTP aux applications avec les fonctions WAF d’AWS CloudFront

AWS propose, par ailleurs, 4 services particulièrement intéressants pour vous accompagner dans cet objectif « RGPD friendly » :

  • Amazon GuardDuty est un service géré de détection des menaces, qui surveille en continu les comportements malveillants ou non autorisés.
  • Amazon Macie utilise le machine learning pour surveiller et protéger les données stockées dans Amazon S3.
  • Amazon Inspector est un service d’évaluation de la sécurité automatisée. Il permet de renforcer la sécurité et la conformité de vos applications déployées sur AWS.
  • AWS Config Rules est un service de monitoring. Il vérifie la conformité des ressources cloud aux règles de sécurité.

Enfin, si vous souhaitez aller encore plus loin sur ce sujet, AWS a publié un livre blanc intitulé « Navigating GDPR Compliance on AWS ». Cet ouvrage explique comment adapter les exigences du RGPD à chaque service AWS, avec un focus sur ceux concernant le monitoring, l’accès aux données, et la gestion des clefs.

En tant que décideurs, chef de projet ou DSI, si vous souhaitez savoir si vous être en règle avec le RGPD ou bien vous mettre en conformité, n’hésitez pas à contacter l’équipe de premaccess. Experte AWS, elle vous conseillera et vous proposera un accompagnement sur-mesure adapté à vos besoins.

Le cloud d’AWS est-ils conforme au RGPD ?

OUI. Amazon Web Services certifie que l’ensemble de ses services et fonctionnalités disponibles respectent les normes les plus élevées en matière de confidentialité et de protection des données personnelles imposées par le RGPD. AWS souhaitait se mettre en conformité avec le Règlement deux mois avant son entrée en vigueur, le 25 mai 2018, afin d’offrir, tant à ses clients qu’à ses partenaires, un environnement dans lequel ils peuvent développer leurs propres produits, services et solutions conformes au RGPD.

Comment se mettre en conformité RGPD sur le cloud ?

1. Chiffrez les données
2. Contrôlez leur accès
3. Assurez une surveillance continue de votre système.

Quels sont les droits fondamentaux des utilisateurs et vos obligations ?

Nous pouvons vous en citer 4 :
– Droit à la portabilité des données
– Droit à l’oubli
– Protection des données dès la conception
– Notification en cas de fuite de données

amazon S3 réduire facture lors de téléchargements en plusieurs parties

Depuis plusieurs années, vous avez pu utiliser la fonctionnalité de gestion du cycle de vie de AWS S3 pour contrôler la classe de stockage et la durée de vie de vos objets. 

Depuis mars dernier, une fonctionnalité a été ajoutée à ce service : le téléchargement incomplet d’objet en plusieurs parties. Ce chargement partitionné vous permet de télécharger un objet unique constitué d’un ensemble de parties. Une fois que toutes les parties de cet objet sont chargées, Amazon S3 présente les données comme un seul objet. 

Grâce à cette fonction, vous pouvez gérer des téléchargements en parallèle, mettre en pause et reprendre le chargement d’un objet, mais aussi commencer les chargements avant de connaître la taille totale de l’objet.

Qu’est-ce que le téléchargement incomplet d’objet en plusieurs parties ?

La fonction de téléchargement partitionné d’AWS S3 accélère le transfert d’objets volumineux en vous permettant de les diviser en plusieurs parties logiques qui peuvent être téléchargées en parallèle. 

Si vous lancez un téléchargement en plusieurs parties, mais que vous ne le terminez pas, le téléchargement en cours va occuper de l’espace de stockage et entraînera des frais de stockage. 

Cependant, ces téléchargements ne sont pas visibles lorsque vous répertoriez le contenu d’un bucket. Ils doivent impérativement être supprimés. S’ils ne sont pas supprimés, l’espace de stockage consommé par ces chargements continuera à être facturé.

Comment savoir si un bucket contient des téléchargements partitionnés ?

Voici un petit script qui peut vous aider à trouver quel bucket a des téléchargements en plusieurs parties :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - Téléchargements partitionnés

Ce script donnera une réponse comme celle-ci :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - Téléchargements partitionnés

« True » signifie que ce compartiment a des téléchargements en plusieurs parties. « False » signifie qu’il n’en contient pas.

Comment puis-je obtenir une liste de téléchargements partitionnés ?

Voici un autre script qui vous aidera à obtenir une liste de téléchargements partitionnés :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - listes Téléchargements partitionnés

Comment éviter le coût inutile des téléchargements incomplets en plusieurs parties ?

Pour cela, il est possible de configurer un cycle de vie dédié à ces téléchargements. Une fois le temps imparti achevé, ils seront automatiquement supprimés de l’espace de stockage. 

Vous pouvez les configurer à l’aide de l’AWS Management Console, de l’interface de ligne de commande AWS (CLI) ou des outils AWS pour Windows PowerShell.

1. Commencez par ouvrir la console et accédez au bucket souhaité :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

2. Cliquez ensuite sur “Properties”, ouvrez la section “Lifecycle” et cliquez sur “Add rule” :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

3. Choisissez votre cible (le bucket entier ou le sous-ensemble préfixé de votre choix) puis cliquez sur “Configure Rule” :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

4. Activez ensuite la nouvelle règle et sélectionnez la période d’expiration souhaitée :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

Vous souhaitez davantage d’informations sur ce nouveau service AWS, n’hésitez pas à contacter l’équipe de premaccess. Spécialisée dans le cloud d’AWS, elle vous conseillera sur ce sujet. 

Qu’est-ce qu’Amazon S3 ?

Amazon S3 est un stockage d’objets conçu pour stocker des données. C’est un service de stockage simple qui offre une infrastructure de stockage de données extrêmement durable, hautement disponible et infiniment évolutive à des coûts très faibles.

La tarification S3

Lors du choix de la classe de stockage S3 idéale pour votre profil de données, vous devez prendre en compte quatre éléments de coûts : la tarification du stockage, la tarification des requêtes et de l’extraction des données, la tarification du transfert des données et de l’accélération du transfert des données et la tarification des fonctions de gestion des données. Pour en savoir + > https://aws.amazon.com/fr/s3/pricing/

Comment les services managés Cloud augmentent la productivité de votre Système d'Information

Le Cloud séduit de plus en plus d’entreprises. Elles sont aujourd’hui nombreuses à basculer progressivement tout ou partie de leur Système d’Information (SI) sur le nuage. Et pour cause. Selon l’étude « Multi-Cloud, Cloud Hybride et Services Managés : Approches, Tendances & Enjeux à 2021 » menée par le cabinet Markess, auprès de 120 DSI et CTO, 

  • 55% d’entre eux expliquent que leurs dépenses dans les Clouds publics vont augmenter au fil du temps,
  • Et 51% ont recours à plusieurs formes de Cloud (différents IaaS publics, IaaS public avec IaaS privé, etc.).

Pour plusieurs DSI et CTO, cette stratégie « Cloud et multi-Cloud » apporte de nombreux avantages : agilité, accès à des services innovants (IA et Machine Learning, Data analytics, etc.), déploiement plus rapide de nouveaux services. Mais, elle demande également un réel accompagnement pour gérer correctement ces environnements, et garder ces architectures Cloud en condition opérationnelle permanente.

Pour répondre à ces besoins, les partenaires de Cloud Providers, et notamment premaccess, proposent des services managés. Appelés Cloud Managed Services Providers, ils se donnent pour objectif de décharger les DSI de la gestion des SI afin qu’elles puissent se focaliser davantage sur l’innovation, et moins sur la maintenance de leur infrastructure informatique. 

En quoi consistent ces services managés Cloud ?

À travers ces services, les MSP s’assurent que les bonnes pratiques en matière d’architecture Cloud sont bien respectées sur votre infrastructure. Ces bonnes pratiques reposent sur 5 piliers : excellence opérationnelle, sécurité, fiabilité, efficacité de la performance et optimisation des coûts.

services managés cloud - les bonnes pratiques reposent sur 5 piliers : excellence opérationnelle, sécurité, fiabilité, efficacité de la performance et optimisation des coûts.

Parmi ces services managés, vous pouvez retrouver :

L’aide à la migration

En fonction de vos compétences et ressources en interne, vous disposez d’un accompagnement et de conseils d’experts pour migrer vers le modèle de services Cloud le plus adapté à vos enjeux (IaaS, PaaS, Saas).

La surveillance

Il convient de surveiller votre infrastructure Cloud afin de prévenir toutes défaillances, et réagir en cas de variations de performances sur l’ensemble du système. Pour cela, les MSP récoltent en temps réel des données sur votre système d’information afin de :

  • veiller à sa bonne santé, 
  • déceler des comportements anormaux sur vos environnements, 
  • définir des alarmes si besoin,
  • automatiser des actions sur la base de seuils prédéfinis, etc. 

La sécurité

Un MSP garantit la sécurité de vos données et de vos infrastructures. Par « sécurité », nous entendons : 

  • confidentialité et intégrité des données, 
  • identification et gestion des utilisateurs et de leurs autorisations, 
  • protection des systèmes, 
  • et mise en place de contrôles pour détecter les événements de sécurité.

La maintenance préventive et en temps réel

Parmi les mesures préventives, nous pouvons notamment citer la sauvegarde et la réplication de vos données, ainsi que leur restauration si besoin.

La maintenance en temps réel consiste en la résolution des incidents dans un temps imparti assez court pour éviter toute indisponibilité de vos services. Dans ce cadre figurent :

  • Le Plan de Continuité d’Activité (PCA) : il assure la reprise la plus rapide possible de l’infrastructure, en cas de sinistre, avec le moins de pertes de données.
  • Le Plan de Reprise d’activité (PRA) : en cas d’incident majeur, les MSP gèrent la reconstruction de votre SI et la remise en activité de vos applications. 

Le PCA et le PRA sont essentiels pour minimiser l’impact financier sur votre activité lors d’incidents informatiques.

L’optimisation des coûts

Les fournisseurs de services managés vous aident aussi à éliminer les coûts superflus, en contrôlant vos dépenses sur le Cloud, et en sélectionnant pour vous les ressources les plus appropriées selon vos besoins et votre budget.

La veille technologique

Enfin, les MSP sont des experts en architectures Cloud. En veille constante sur les dernières tendances du secteur, ils vous conseillent sur l’évolution de votre SI dans le temps en fonction de vos nouveaux besoins ou nouvelles offres.

Les avantages des services managés Cloud

En optant pour ces services managés Cloud :

  • Vous avez l’assurance que votre Système d’Information est toujours disponible dans le temps. Vous vous protégez contre tous arrêts et incidents.
Services managés cloud avantages
  • Vous êtes libéré des contraintes informatiques. Ainsi, vous augmentez votre productivité en interne, et vous permettez notamment à votre DSI d’être davantage tournée vers l’innovation de vos services.
  • Vous gagnez en efficience en vous concentrant sur votre coeur de métier. Fini la perte de temps avec la maintenance.
  • La sécurité de votre système est 100% fiable. Vous n’avez plus à vous en soucier.
  • Vous réalisez des économies car les MSP, experts en FinOps, vous aident à optimiser durablement vos dépenses.
  • Et, cela est primordial, vous restez innovant grâce à la veille technologique de ces fournisseurs de services managés.

En tant que décideurs, DSI ou CTO, si vous souhaitez externaliser la gestion de votre SI, n’hésitez pas à contacter l’équipe de premaccess. Experte en services managés Cloud, elle vous conseillera et vous proposera un accompagnement sur-mesure adapté à vos besoins. Objectif : vous simplifier la gestion quotidienne de votre IT !

Que sont les services managés Cloud ?

À travers ces services, les MSP s’assurent que les bonnes pratiques en matière d’architecture Cloud sont bien respectées sur votre infrastructure. Ces bonnes pratiques reposent sur 5 piliers : excellence opérationnelle, sécurité, fiabilité, efficacité de la performance et optimisation des coûts.

Quels sont les avantages des Cloud Managed Services Providers (MSP) ?

Les Cloud Managed Services Providers (Cloud MSP) se donnent pour objectif de décharger les DSI de la gestion des SI afin qu’elles puissent se focaliser davantage sur l’innovation, et moins sur la maintenance de leur infrastructure informatique. 

Développement serverless services managés cloud aws

En tant que développeur, notre métier a fortement évolué. Les infrastructures sont passées de serveurs on-premise à des machines virtuelles, et sont maintenant hébergées sur des instances Cloud. Nous parlons désormais de Développement Serverless. Mais le métier de développeur ne s’est pas complexifié pour autant. Bien au contraire. 

Fondamentalement, avec le Cloud, la manière de programmer change pour se consacrer à l’essentiel. La révolution tient dans l’architecture des projets, orientée désormais en microservices. 

Grâce à ces microservices ou plus largement au serverless, vous utilisez du code et des services de base prêts à l’emploi. Vous vous consacrez ainsi uniquement à la valeur ajoutée de votre projet et donc de votre code ainsi que les fonctionnalités associées. De quoi vous faire gagner du temps, assurer la qualité du code, et vous pousser à repenser notre business davantage tourné vers l’innovation. 

Si vous êtes développeurs, ou bien porteurs de projets, découvrez les nombreux avantages qu’offre cette architecture.

Des microservices et un développement Serverless pour …

… Mieux vous concentrer sur le coeur de votre application

Lorsque vous déployez une solution sur un serveur on-premise ou bien sur une machine virtuelle, votre équipe de développeurs se charge de tout coder : les fonctions propres à votre application, ainsi que les fonctions annexes mais essentielles comme la gestion des utilisateurs, la connexion sécurisée aux bases de données, etc. Nous parlons alors d’architecture monolithique.

En revanche, en déployant une solution sur le Cloud en développement serverless, vous pouvez vous concentrer principalement sur les fonctions natives de votre application. Connecté en ligne, vous avez accès à pléthores de services managés pour les fonctions de base. Sur Amazon Web Service, par exemple, une multitude de microservices sont disponibles pour créer une architecture serverless. Ils vous permettent de déployer très rapidement des fonctionnalités universelles comme « IAM » pour gérer la politique de sécurité de vos utilisateurs, « Cognito » pour sécuriser leurs authentifications et gérer vos utilisateurs, « Lex » pour la création de Chatbots, « Simple Email Service » pour l’envoi d’emails depuis votre application, etc.

Il serait bien trop long de tous les énumérer. AWS en crée des dizaines par an. Son catalogue en compte plus d’une centaine autour de thématiques liées au calcul, au stockage de données, à l’analyse, à la sécurité de vos applications, à l’Internet des Objets, au Machine Learning, etc. Découvrez-les ici : https://aws.amazon.com/fr/products/?nc2=h_ql_prod

… Plus d’agilité et vous faire gagner du temps

Clairement, en vous concentrant sur les fonctions natives de votre application et en utilisant ces services managés (service cloud), vous réduisez le temps de développement de vos projets web.

développement serverless plus d’agilité gain de temps application plus évolutive et scalable

Par ailleurs, votre architecture serverless étant découpée en services, vous pouvez répartir la mise en place de chaque fonction entre développeurs. Chacun peut programmer de façon indépendante, sans avoir à connaître la structure du code des autres parties de l’application. Il suffira juste à votre chef de projet de réaliser des tests d’intégrations pour vérifier que tout fonctionne ensemble.

… Rendre votre application plus évolutive

Grâce à ce découpage en microservices, grâce au serverless, vous optimisez l’évolutivité de votre solution. Modifier une fonctionnalité demandera d’intervenir sur un seul service sans avoir à vérifier à nouveau l’ensemble de l’application.

De plus, en utilisant ces services managés, vous accédez plus facilement aux nouvelles fonctionnalités proposées par le Cloud provider. Par exemple, dans le cas où vous utilisez Cognito pour gérer les accès à votre application, vos users se connectaient en premier lieu avec un login et mot de passe. Quand ce service a évolué, vous avez pu mettre en place une double authentification très facilement.

… Et plus scalable

Sur le Cloud, grâce au développement serverless, une entreprise peut mieux ajuster ces besoins dédiés en ressources, qu’ils soient à la hausse ou à la baisse. Ainsi, elle a un meilleur contrôle de sa consommation et ne paie que ce qu’elle consomme en ligne. 

Sur AWS, les services sont managés. L’élasticité de vos applications est assurée automatiquement par le Cloud Provider. Celui-ci ajuste la capacité nécessaire à maintenir à l’instant T en fonction des performances enregistrées. Ainsi, la haute-disponibilité est le maître-mot. Votre application reste disponible de façon optimale même s’il y a des changements brusques de charge de travail.

… Un code de meilleure qualité

développement serverless code de meilleure qualite

Dans le cadre d’un développement serverless, chaque service propose une fonction, et donc un code largement éprouvé et vérifié par les Cloud providers. Ce qui vous assure un code de bonne qualité. 

De plus, votre application étant divisée en micro-modules, la chasse au bug est beaucoup plus facile. La maintenance aussi !

… Avec des outils de supervision intégrés 

Cela étant, cette qualité n’empêche pas la supervision, le monitoring de vos solutions. Sur AWS, « Amazon CloudWatch » permet la surveillance de vos ressources et de vos applications par la collecte de données opérationnelles sous forme de journaux, métriques ou évènements. Objectif : s’assurer de la disponibilités des applications sur votre infrastructure. Et comme nous travaillons en microservices, si l’un d’entre eux est défaillant, si un sinistre survient, nous pourrons le remplacer aisément par un autre. 

… Plus de résilience

L’indépendance de chaque fonction augmente considérablement la résistance de votre application face aux possibles pannes. Si un incident survient sur une des fonctions que vous avez développées (hors services AWS donc), cela ne rendra pas l’application indisponible. Dans ce cas, seule la fonction en question sera interrompue momentanément. 

… Pour réduire les coûts

développement serverless réduction des coûts

Comme le développement serverless fonctionne au paiement à l’usage, vous pouvez parfaitement les tester pour développer de nouvelles offres. Ainsi, vous pouvez voir si cela répond à une demande de vos clients, adapter ou ajuster votre proposition sans que cela ne vous coûte bien trop cher.

Enfin, les développeurs, experts en microservices, mettent bien moins de temps pour créer une application. Le Serverless nécessite donc moins de ressources et de développeurs. Aussi, si vous souhaitez lancer une application rapidement, découvrir les avantages du cloud computing, et adopter ce type d’architecture, entourez-vous de spécialistes. L’équipe de premaccess accompagne de nombreuses entreprises qui ont franchi le cap du serverless (startups, ETI, grandes entreprises)

… Plus d’innovation bien sûr !

Plus généralement, avec les architectures serverless, nous devons réfléchir davantage à la structure de nos applications avant de nous lancer dans leur développement.

Pour tous développeurs, appréhender le Cloud et les microservices impose une nouvelle approche du métier et de la flexibilité. Que dois-je coder moi-même ? Que dois-je programmer à partir d’un service managé ? Comment l’interface est organisée entre ces différentes fonctions ?

Assurément, cette nouvelle architecture réduit considérablement les cycles de développement. Un constat qui doit nous pousser à réinventer nos business, repenser nos valeurs ajoutées et les éléments différenciants qu’apportent nos applications en matière d’innovation. 

En tant que développeur ou chef de projet, si vous souhaitez être accompagné lors de la création d’une application sur le Cloud, n’hésitez pas à contacter l’équipe de premaccess. Elle vous conseillera pas à pas, et vous présentera les atouts des services managés pour rendre votre projet innovant et évolutif.

Serverless, c’est quoi ?

Fondamentalement, dans un environnement Cloud, la manière de programmer change pour se consacrer à l’essentiel. La révolution tient dans l’architecture des projets, orientée désormais en microservices “Serverless”. Grâce à ces microservices ou plus largement au serverless, vous utilisez du code et des services de base prêts à l’emploi. Vous vous consacrez ainsi uniquement à la valeur ajoutée de votre projet et donc de votre code ainsi que les fonctionnalités associées. De quoi vous faire gagner du temps, assurer la qualité du code, et vous pousser à repenser notre business davantage tourné vers l’innovation. 

Les avantages de l’architecture Serverless

Vous vous concentrez sur le coeur de votre application. Votre équipe travaille avec plus d’agilité et gagne du temps. Votre application est plus évolutive, plus scalable. Votre code est de meilleure qualité. Vous réduisez vos coûts.

Le mode de développement serverless

Lorsque vous déployez une solution sur un serveur on-premise ou bien sur une machine virtuelle, votre équipe de développeurs se charge de tout coder : les fonctions propres à votre application, ainsi que les fonctions annexes mais essentielles comme la gestion des utilisateurs, la connexion à la base de données, etc. Nous parlons alors d’architecture monolithique.
En revanche, en déployant une solution sur le Cloud en développement serverless, vous pouvez vous concentrer principalement sur les fonctions natives de votre application.

Développement serverless ou architecture sans serveur

Une architecture sans serveur est un moyen de créer et exécuter des applications et services sans avoir à gérer d’infrastructure. Votre application s’exécute toujours sur des serveurs, mais la gestion des serveurs est effectuée par votre cloud provider (AWS – Amazon Web Services / Google Cloud / Microsoft Azure (appelé Windows Azure jusqu’en 2014…).