Depuis 2019, My Tour Live vous propose des visites guidées à distance, comme si vous y étiez. Misant sur la vidéo 360° et sur l’interactivité, ce service est aujourd’hui prisé par des secteurs B2B comme l’immobilier, et B2C comme la culture. 

Un an après son lancement, My Tour Live a migré de Google Cloud vers AWS, épaulé par premaccess. Son objectif : s’ouvrir à un marché international encore plus large en touchant notamment la Chine (ce qui n’est pas le cas avec Google Cloud) et disposer d’une infrastructure cloud scalable grâce aux microservices d’AWS. Franck Adraï, son fondateur, revient sur la genèse du projet, et sur les atouts de cette innovation.

Comment est née My Tour Live ?

J’étais encore en expatriation en Polynésie française, à Tahiti, quand l’idée de My Tour Live est née. Nous étions en 2017. Je préparais mon retour en France métropolitaine. Et je me demandais comment accéder à la visite de lieu en étant éloigné. De manière inconsciente ou consciente, l’éloignement de Tahiti, la difficulté d’accès… m’ont poussé à réfléchir à ce projet.

À cette époque-là, Facebook Live et les lives streaming existaient déjà. Et nous parlions déjà de vidéos 360°. Les internautes pouvaient interagir lors des lives streaming, mais pas devant une vidéo 360°.

À mon retour en France, j’ai suivi un Executive MBA à Lausanne. Durant cette formation, j’ai affiné cette idée. Et j’ai créé My Tour Live en 2018.

En quoi My Tour Live est-il aujourd’hui un service novateur ?

Cette application est une combinaison de 5 facteurs : la caméra action, l’immersion de l’internaute/visiteur à 360°, l’accès à un lieu à distance, le live streaming et l’interaction avec le présentateur/guide. 

mytourlive video à la demande aws

Aujourd’hui, votre solution est prisée par des secteurs du B2B et du B2C.

En effet, côté B2B, nous touchons le secteur de l’immobilier. Avec le confinement, il a été impossible pour les agences immobilières d’organiser des visites de biens. Avec My Tour Live, plusieurs d’entre elles ont permis à leurs clients de visiter des logements à distance tout en répondant à leurs questions en temps réel. 

Côté tourisme, l’hôtellerie s’intéresse à notre application à des fins de promotion et d’aide à la vente. Quoi de mieux qu’une visite immersive pour présenter ses structures d’accueil à distance et pour donner envie ?

En B2C, la solution plaît aux entreprises culturelles comme les musées et les offices de tourisme qui y voient un moyen de promouvoir une destination (en donnant un avant-goût) et de développer leurs offres de visites guidées. Nous travaillons notamment avec le Musée Ziem, à Martigues, sur ce type de services. Lors de ces visites, les internautes sont ainsi immergés dans un lieu sans y être, se baladent avec un guide et entrent en interaction avec lui en temps réel, ce qui humanise l’expérience. 

Vous avez sollicité premaccess pour votre migration sur AWS.

La première version de notre application, lancée en 2019, avait été déployée sur Google Cloud. Après un an d’activité, nous avons décidé de basculer sur AWS pour deux raisons : 

1. Google Cloud n’est pas disponible partout dans le monde, et notamment en Chine. Nous souhaitions être présents dans cette région du monde. Ce que nous permet Amazon Web Service. 

2. Par ailleurs, en tant que cloud provider, AWS propose davantage de microservices sur sa plateforme. Ce qui est intéressant quand vous souhaitez scaler progressivement votre business.

Sur ce projet, premaccess nous a épaulé. Hébergée comme nous au sein de Marseille Innovation, son équipe est spécialisée dans les infrastructures cloud, avec une expertise particulière sur AWS, et a une réelle culture start-up. Ce sont de réels atouts pour notre projet.

Lors de votre passage de Google Cloud à AWS, avez-vous reconstruit l’ensemble de votre application ?

Nous n’avons pas refait le travail deux fois, bien sûr. En revanche, nous avons retravaillé des briques et des fonctionnalités en particulier. 

premaccess nous a apporté son expertise et nous a donné les clés d’entrée sur AWS. Sur cette partie, son équipe nous a accompagnés :

  • Lors de la migration depuis GCP avec Firebase et Brightcove vidéo vers les services AWS (Amplify AWS / AWS Media).
  • Lors du développement d’un module fonctionnel de gestion des invitations. La question que nous nous sommes posée : comment faire pour que les invités n’aient accès qu’à cette session et pas une autre ? Se posent ici des interrogations liées à la gestion des droits des utilisateurs. premaccess a géré cette partie en combinant 4 services AWS (Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS) et en générant des fonctions Lambda Trigger.
  • Lors de la migration du service Brightcove vers AWS Elemental pour le streaming vidéo. AWS Elemental MediaLive est un service de traitement vidéo en direct. Il permet de créer des flux vidéo de haute qualité en vue d’une diffusion sur les télévisions et les appareils multiécrans connectés à Internet (télés connectées, tablettes, smartphones…). Il permet la VOD et le Full Live.

Après deux ans d’existence, l’application My Tour Live a prouvé qu’elle répondait à un réel besoin sur le marché. Quels sont vos projets à venir ?

Nous cherchons toujours à améliorer notre plateforme, à ajouter des modules fonctionnels, à migrer d’autres modules externes vers des services existants sur AWS. En clair, nous envisageons d’utiliser de plus en plus les services de ce cloud provider. Objectifs : accroître notre offre et le business de la vidéo 360°.

Pour en savoir + sur My Tour Live :

Pour en savoir + sur les services AWS :

Quelles sont les solutions disponibles pour traiter du contenu vidéo à la demande sur AWS ?

Amazon Web Services (AWS) propose deux solutions multimédias permettant de fournir aux publics à travers le monde du contenu vidéo à la demande (VOD) à des coûts avantageux à l’aide du Cloud AWS : Video on Demand on AWS Foundation et Video on Demand on AWS.
Pour en savoir + : https://aws.amazon.com/fr/solutions/implementations/video-on-demand-on-aws/

AWS Elemental Media Live, service de traitement vidéo

Ce service encode vos flux vidéo en direct en temps réel, en utilisant une source vidéo en direct de grande taille et en la compressant en des versions plus petites en vue d’une diffusion à vos utilisateurs. Avec AWS Elemental MediaLive, vous pouvez facilement configurer des flux pour des événements en direct et des canaux fonctionnant 24 h sur 24 et 7 j sur 7, en profitant de fonctionnalités de diffusion avancées, d’une haute disponibilité et d’une tarification à l’utilisation.
Pour en savoir + : https://aws.amazon.com/fr/medialive/

Depuis le 30 novembre et jusqu’au 18 décembre, AWS re:Invent 2020 se déroule 100% en ligne. Entre les conférences, les leadership sessions, et les ateliers, il y a eu pléthores d’annonces et de nouveaux services présentés. Vous les avez ratés ?! Voici les essentiels !

Le programme re:invent 2020

https://www.premaccess.com/aws-reinvent-2020-les-rendez-vous-a-ne-pas-manquer-en-anglais-en-francais/

Pre-re:Invent 2020

AWS Network Firewall, un nouveau service de pare-feu réseau géré à haute disponibilité pour votre cloud privé virtuel (VPC) 

Il permet de déployer et de gérer facilement l’inspection, la prévention et la détection des intrusions. Il s’adapte automatiquement à votre trafic, garantissant une haute disponibilité sans investissement client supplémentaire dans l’infrastructure de sécurité.

Avec ce service, vous pouvez mettre en œuvre des règles personnalisées pour empêcher vos VPC d’accéder à des domaines non autorisés, pour bloquer des adresses IP ou pour identifier une activité malveillante. AWS Network Firewall rend l’activité du pare-feu visible en temps réel via les métriques CloudWatch.

https://amzn.to/3pF0igJ

Amazon S3 Storage Lens, solution d’analyse du stockage dans le cloud

Elle vous permet d’avoir une visibilité sur le stockage d’objet à l’échelle de votre organisation. 

Cet outil combine plusieurs jeux de données afin de vous aider à découvrir des anomalies, à identifier les économies de coûts à réaliser et à appliquer les meilleures pratiques en matière de protection des données. Via ses tableaux de bord, vous visualisez facilement les recommandations exploitables

https://amzn.to/3ffw3Z5

AWS Backup, sauvegarde entre comptes

À l’aide d’AWS Backup, vous pouvez sauvegarder sur plusieurs comptes AWS à la demande ou automatiquement dans le cadre d’un plan de sauvegarde planifié. La sauvegarde entre comptes est précieuse. 

Cette documentation vous explique pas à pas comment les réaliser avec AWSBackup (comment créer un coffre-fort de sauvegarde, attribuer une clé principale client…).

https://amzn.to/3kKUIpp

Network Load Balancer prend désormais en charge la version 6 du protocole Internet (IPv6)

Avec cette nouvelle fonctionnalité, vous pouvez prendre en charge les connexions clients IPv6 sans modifier votre application. Votre Network Load Balancer convertit de manière transparente le trafic IPv6 en trafic IPv4 avant de l’acheminer vers les cibles backend.

https://amzn.to/2Jfpyt8

La version 2 du moteur de requêtes d’Amazon Athena est désormais disponible 

Cette nouvelle version comporte plusieurs améliorations de performances et nouvelles fonctionnalités comme :

  • les requêtes fédérées, 
  • la prise en charge de l’évolution des schémas, 
  • les fonctions géospatiales supplémentaires, 
  • la prise en charge de la lecture des schémas imbriqués afin de réduire les coûts
  • et les améliorations de performances pour les opérations JOIN, ORDER BY et AGGREGATE.

https://amzn.to/3makJjp

Vous pouvez désormais utiliser un langage de requête compatible SQL pour interroger, insérer, mettre à jour et supprimer des données de table dans Amazon DynamoDB

PartiQL est un langage de requête compatible SQL. Il facilite l’interaction avec DynamoDB et l’exécution de requêtes dans AWS Management Console. 

https://amzn.to/3m7cV1W

Modules pour AWS CloudFormation

Pour simplifier votre gestion des ressources à travers AWS CloudFormation, vous pouvez désormais utiliser les modules. 

Les modules sont des blocs de construction réutilisables. Ils simplifient l’utilisation des ressources spécifiques dont vous avez besoin tout en maintenant les configurations de ressources alignées sur les meilleures pratiques organisationnelles. 

https://amzn.to/3m8B349

CodeSigning

Avec ce service, vous pouvez désormais vous assurer que seul du code approuvé et vérifié est déployé dans vos fonctions AWSLambda.

La signature de code est une technique utilisée pour confirmer que le code provient d’un éditeur de confiance.

Code Signing aide les administrateurs à faire en sorte que seuls les packages de code signé d’éditeurs de confiance s’exécutent dans leurs fonctions Lambda et que le code n’a pas été modifié ou falsifié depuis la signature.

https://amzn.to/3lgP6DT

Re:invent 2020 – Semaine 1 – 30 nov. – 4 déc.

Instance Amazon EC2 pour macOS

Nous pouvons désormais utiliser des instances Mac Amazon EC2 pour créer et tester des applications macOS, iOS, ipadOS, tvOS et watchOS 

Ces instances disposent d’un processeur Intel Core i7 (Coffee Lake) à 6 cœurs de 8e génération.

Du côté du réseau, elles s’exécutent dans un Virtual Private Cloud (VPC).

https://amzn.to/3lq0Q72

AWS Lambda prend désormais en charge jusqu’à 10 Go de mémoire

Nous pouvons désormais allouer jusqu’à 10 Go de mémoire à une fonction Lambda. 

C’une augmentation de plus de 3 fois par rapport aux limites précédentes. 

Lambda alloue le processeur et les autres ressources de manière linéaire proportionnellement à la quantité de mémoire configurée. Cela signifie que nous pouvons désormais avoir accès à jusqu’à 6 processeurs virtuels dans chaque environnement d’exécution. 

https://amzn.to/37vOuFc

AWS Lambda fait passer la granularité de la facturation de la durée de 100 ms à 1 ms

Une bonne nouvelle pour notre portefeuille ! AWS Lambda réduit la granularité de facturation pour la durée de la fonction Lambda de 100 ms à 1 ms.  Cela va baisser le prix de la plupart des fonctions Lambda, plus encore des fonctions de courte durée. 
Ainsi, leur durée de calcul va être facturée par incréments de 1 ms au lieu d’être arrondie à l’incrément de 100 ms le plus proche par appel. 

https://amzn.to/3mzCN6N

Présentation de la prochaine version d’Amazon Aurora Serverless en avant-première

Cette nouvelle version offre la possibilité de faire évoluer les charges de travail de base de données vers des centaines de milliers de transactions en une fraction de seconde. 

https://amzn.to/33SGhKD

AWS Lambda prend désormais en charge les images de conteneur en tant que format d’emballage

Avec le service Container Image Support, nous pouvons désormais déployer des fonctions AWS Lambda sous la forme d’image de conteneur d’une capacité maximale de 10 Go.

https://amzn.to/3qvJNnV

Présentation d’Amazon QuickSight Q: posez des questions sur vos données et obtenez des réponses en quelques secondes

Jusqu’à présent, QuickSight permettait aux entreprises de créer et analyser des visualisations de leurs données client en quelques minutes. 

La nouvelle fonctionnalité de ce service « Amazon QuickSight Q », basée sur le machine learning, utilise le traitement du langage naturel pour répondre instantanément aux questions de votre entreprise. Elle est optimisée pour comprendre le langage commercial que vous utilisez quotidiennement dans le cadre de votre travail. 

Ainsi, les utilisateurs peuvent saisir simplement des questions comme « Quel est notre taux de croissance d’une année sur l’autre ?» et obtenir une réponse instantanée sous forme de visualisation. 

https://amzn.to/3lzm2HL

Amazon Monitron, un service simple et économique permettant une maintenance prédictive

Ce nouveau service propose un système de #surveillance des machines de bout en bout pour détecter les anomalies et comportements anormaux. 

Basé sur le machine learning, il peut notamment prédire quand les équipements industriels nécessiteront une maintenance 

https://amzn.to/39ALPNc

Amazon CodeGuru Reviewer annonce des détecteurs de sécurité pour aider à améliorer la sécurité du code

Amazon CodeGuru Reviewer nous aide à identifier les risques de sécurité en recherchant les problèmes critiques, et en soumettant des recommandations pour les corriger.

C’est une fonctionnalité supplémentaire à CodeGuru. Rappelons-le : AmazonCodeGuru est un outil de développement basé sur le machine learning qui fournit des recommandations intelligentes pour améliorer la qualité du code et identifier les lignes de code les plus coûteuses des #applications. 

https://amzn.to/3lEwUE1

Amazon EKS prend désormais en charge la création et la gestion d’instances Spot Amazon Elastic Compute Cloud (Amazon EC2)

Cela vous permet de profiter des économies considérables qu’offrent les instances Spot pour les charges de travail s’exécutant dans votre cluster Kubernetes.

https://amzn.to/3g2y5fv

Présentation de nouveaux volumes à usage général Amazon EBS, GP3

Amazon Elastic Block Store (EBS) est un service de stockage hautes performances et facile à utiliser, conçu pour être utilisé avec les instances Amazon EC2.

Sur ce service, nous pouvons désormais utiliser un nouveau type de volume SSD EBS, gp3. 

gp3 est idéal pour les applications qui nécessitent des performances élevées à faible coût telles que MySQL, Cassandra, les bureaux virtuels…

https://amzn.to/36z2lLI

AWS Amplify annonce une nouvelle interface utilisateur d’administration

Découvrez ses nouvelles fonctionnalités https://amzn.to/3lBSh92

Re:invent 2020 – Semaine 2 – 7 au 11 déc.

Présentation d’Amazon SageMaker Pipelines, premier service CI / CD spécialement conçu pour l’apprentissage automatique

Avis aux développeurs et aux scientifiques spécialistes de machinelearning : AWS apporte une brique supplémentaire à Amazon SageMaker avec Amazon SageMaker Pipelines.

SageMaker Pipelines est le premier service CI/CD spécialement conçu pour l’apprentissage automatique. Il permet automatiser et d’orchestrer des flux de travail #ML.

Il propose, par ailleurs (et cela n’est pas négligeable !), les meilleures pratiques DevOps appliquées à l’apprentissage automatique MLOps. 

https://amzn.to/373uT09

Présentation d’Amazon HealthLake

Avec Amazon HealthLake, AWS fait un pas de + dans le secteur de la santé. Son objectif : aider les professionnels à utiliser efficacement l’ensemble des données pour prendre les meilleures décisions en matière de soin.

Les médecins, l’assurance maladie, les pharmacies… collectent des quantités d’infos sur les patients (antécédents, observations cliniques, diagnostics, médicaments). Actuellement, ces données sont réparties sur une multitude de systèmes (dossiers médicaux électroniques, systèmes de laboratoire, etc.) et existent dans des dizaines de formats incompatibles. Pas simple donc.


HealthLake supprime cette lourde tâche d’organisation des données sur chaque patient. Il agrège ces infos à partir de différents silos et formats dans un lac de données AWS centralisé. Il utilise des modèles de machine learning pour normaliser ces données et extraire automatiquement des informations médicales significatives. De quoi mieux diagnostiquer.

https://amzn.to/33YLkco

Amazon Kendra ajoute un connecteur #GoogleDrive

Le  service de recherche intelligente basé sur l’apprentissage automatique Amazon Kendra ajoute désormais un connecteur #GoogleDrive.

Avec AWS, il n’y a pas de frontière. Vous pouvez aller chercher vos données n’importe où ! Objectif : rester ouvert !

https://amzn.to/2VZkDjh

Présentation d’Amazon SageMaker Data Wrangler

La plupart des modèles #ML demandent beaucoup de temps pour agréger des données. Et bien, ce temps est bien révolu grâce à un nouveau service que nous avons découvert la semaine dernière.

Amazon SageMaker Data Wrangler réduit ce temps nécessaire de plusieurs semaines à quelques minutes. Il simplifie le processus de préparation des données et d’ingénierie des fonctionnalités.

À l’aide de son outil de sélection, nous pouvons choisir les datas que l’on souhaite à partir de diverses sources #AmazonS3, #Athena, #Redshift, #LakeFormation… et les importer en un seul clic. 

https://amzn.to/3m2lB91

Zoom sur la conformité avec AWS Audit Manager

Le nouveau service AWS Audit Manager nous aide à auditer en permanence notre utilisation d’#AWS pour savoir si nos systèmes sont conformes aux réglementations et aux normes : #rgpd, #securité, #paiementenligne.

https://amzn.to/3gvB28J

AWS Security Hub s’intègre à AWS Audit Manager

Security Hub nous donne une vue complète de nos alertes de sécurité. Il regroupe nos alertes ou résultats de sécurité provenant de plusieurs services AWS, comme #GuardDuty, #Inspector et #Macie…

https://amzn.to/33Xqc6a

Présentation d’Amazon Redshift ML

Vous pouvez désormais créer, entraîner et déployer des modèles de machine learning dans Amazon Redshift à l’aide de SQL. Cela est possible avec Amazon Redshift ML.

Ce nouveau service a de nombreux avantages :

Il vous permet de créer et de former des modèles ML avec de simples commandes SQL sans avoir à apprendre des outils externes.

Il offre la flexibilité d’utiliser la sélection automatique d’algorithmes.

Il permet aux experts en #ML tels que les #datascientists de sélectionner des algorithmes tels que #XGBoost et de spécifier des #hyperparamètres et des #préprocesseurs.

https://amzn.to/2K4IoDT

3 nouvelles fonctionnalités pour CodeGuru

Prise en charge de Python > Vous pouvez désormais utiliser CodeGuru pour améliorer les applications écrites en Python

Détecteurs de sécurité pour CodeGuru Reviewer > Pour identifier les vulnérabilités de sécurité et vérifier les meilleures pratiques de sécurité dans votre code Java

Profilage de la mémoire pour CodeGuru Profiler > Pour optimiser la façon dont votre application utilise la mémoire.

https://amzn.to/37Rz0vr

Re:invent 2020 – Semaine 3 – 14 au 18 déc.

AWS CloudShell

AWS CloudShell permet d’accéder en ligne de commande aux ressources et outils #AWS directement à partir d’un navigateur. Avec CloudShell, nous pouvons exécuter rapidement des scripts avec l’AWS Command Line Interface (AWS CLI), expérimenter les API de service AWS à l’aide des kits SDK AWS…

https://amzn.to/2KdzfZZ

Amazon Managed Service for Grafana

Ce service facilite la création d’espaces de travail Grafana à la demande, pour visualiser et analyser votre données provenant de sources multiples. Grafana est l’une des technologies open source les plus populaires utilisées pour créer des tableaux de bord d’observabilité pour des applications. 

https://amzn.to/3ns4hvJ

Plus d’infos sur re:Invent, rendez-vous :

Qu’est-ce que AWS Re:invent ?

AWS re:Invent est un évènement organisé par Amazon Web Services (AWS) pour la communauté mondiale du cloud computing. L’événement comprend des annonces, des lancements, des sessions et plus encore.

Quand se tient AWS re:Invent 2020 ?

AWS re:Invent 2020 est présenté sur trois semaines, du 30 novembre au 18 décembre 2020. Découvrez l’agenda : https://reinvent.awsevents.com/agenda/

Nous pouvons le dire : cette année, la conférence des partenaires d’AWS se réinvente. Pendant trois semaines, du 30 novembre au 18 décembre, AWS re:Invent 2020 vous propose d’assister à des conférences et ateliers tranquillement depuis votre bureau ou canapé. L’ensemble de ces rendez-vous sera disponible en ligne, entièrement gratuitement.

Voici les keynotes attendues :

  • Mercredi 2/12 – 9h (CET / GMT +1) – Keynote générale, par Andy Jassy, CEO d’AWS.
  • Jeudi 3/12 – 9h (CET / GMT +1) – Keynote partenaires, par Doug Yeum, head of Worldwide Channels and Alliances; Sandy Carter, VP Global Public Sector Partners & Programs; et Dave McCann, VP AWS Migration, Marketplace, & Control Services.
  • Mercredi 9/12 – 9h (CET / GMT +1) – Keynote Apprentissage Automatique et Intelligence Artificielle, par Swami Sivasubramanian, VP Amazon Machine Learning.
  • Vendredi 11/12 – 9h (CET / GMT +1) – Keynote Infrastructure, par Peter DeSantis, SVP Global Infrastructure & Customer Support.
  • Mercredi 16/12 – 9h (CET / GMT +1) – Keynote Architecture, par Dr. Werner Vogels, VP & CTO AWS.
reinvent aws keynote partners

Les Leadership Sessions

19 Leadership Sessions sont également programmées. Ces sessions sont l’occasion d’entendre directement les leaders AWS sur les dernières avancées technologiques d’AWS.

https://reinvent.awsevents.com/leadership-sessions/

reinvent leadership sessions

Les GPS Breakout Sessions

15 sessions en petits groupes, d’une durée de 30 minutes, sont proposées afin que vous puissiez poser vos questions à un panel d’experts. Pensez à vous y inscrire !

  • Naviguez avec succès dans le parcours du partenaire conseil (GPS201)
  • Offrez un lieu de travail numérique sécurisé à vos clients (GPS 202)
  • Modernisation de la base de données avec AWS Consulting Partners (GPS203)
  • Accélérez les migrations avec le programme de migration de la charge de travail ISV (GPS204)
  • Fournir des services professionnels dans un monde COVID-19 (GPS205)
  • Au-delà de l’infrastructure pour stimuler votre activité SAP (GPS206)
  • Comment vendre sur AWS Marketplace (GPS207)
  • Perspectives et inspiration de ceux qui sont sur le chemin de la transformation (GPS208)
  • Modernisez les bases de données et les applications avec le programme Database Freedom pour les éditeurs de logiciels indépendants (GPS209)
  • Co-vente pour les intégrateurs de systèmes (GPS210)
  • Les partenaires AWS stimulent l’innovation avec COVID-19 (GPS211)
  • Co-vente pour les éditeurs de logiciels indépendants (GPS212)
  • Combler le déficit de compétences cloud en créant une main-d’œuvre diversifiée et dynamique (GPS213)
  • Passer au «all-in» – Exploiter tout le potentiel du cloud (GPS214)
  • Comment organiser virtuellement des ateliers clients et des webinaires efficaces (GSP302)

Du contenu en français

Enfin, dans son dernier article de blog, l’expert AWS Sébastien Stormacq nous indique que plusieurs sessions se tiendront en français. En voici quelques-unes :

  • Une application résiliente, dans un monde partiellement dégradé, par Pascal Martin, Bedrock / M6
  • Construire des workflows complexes de calcul avec AWS Step Functions et AWS Fargate, par Roberto Migli, AWS
  • DevSecOps, Inclure la sécurité dans un flux CI/CD, par Dany Poudrier, AWS & Laurent Jalbert-Simard , pokia.io
  • Architecturer sa gouvernance sur AWS : de Zero à Hero, par Walid Benabderrahmane, AWS & Ludovic Tressol, Thales
  • Faire plus avec moins de code en Serverless, par Jérôme Van Der Linden, AWS

Pour en savoir + à ce sujet, rendez-vous sur cet article de blog : https://aws.amazon.com/fr/blogs/france/du-contenu-en-francais-pendant-reinvent-2020/

Plus d’infos sur re:Invent, rendez-vous :

Bon re:Invent à tous !

Qu’est-ce que AWS Re:invent ?

AWS re:Invent est un évènement organisé par Amazon Web Services (AWS) pour la communauté mondiale du cloud computing. L’événement comprend des annonces, des lancements, des sessions et plus encore.

Quand se tient AWS re:Invent 2020 ?

AWS re:Invent 2020 est présenté sur trois semaines, du 30 novembre au 18 décembre 2020. Découvrez l’agenda : https://reinvent.awsevents.com/agenda/

Faut-il s’inscrire pour accéder à cet évènement ?

Oui. En vous inscrivant à re:Invent, vous aurez accès à des keynotes, des sessions de leadership et plus de 500 sessions en petits groupes, ainsi que la possibilité de vous connecter avec des experts AWS, des partenaires et plus encore.

Basculer l’ensemble de l’activité sur le cloud ? Oui, mais pourquoi ? Comme beaucoup d’entreprises, premaccess s’est posée cette question. Créée en 2007, elle est aujourd’hui experte en développement d’applications Platform/Serverless/SaaS et en services managés cloud – notamment avec sa solution d’orchestration d’infrastructure BAM (Build Automation  Machine). Mais, il n’en a pas toujours été ainsi. 

Spécialisée initialement dans l’hébergement premium de données sensibles (bancaire, santé, trading, ads…), premaccess décide de migrer l’ensemble de son activité sur le Nuage en 2015. L’innovation technologique fait partie de son ADN. Difficile pour elle de fermer les yeux sur l’arrivée des cloud providers sur le marché.

Entre la mise en place d’une stratégie cloud, la réflexion sur le business model et la formation des équipes à ces nouvelles technologies, l’ex-hébergeur a mis près de 5 ans pour être 100% cloud. L’entreprise fermera son tout dernier datacenter en décembre prochain. 

À la différence des prestataires « cloud natives », premaccess a vécu l’itinéraire que suit toute entreprise qui réalise la bascule « On premise » vers le nuage. Une expérience que ses équipes ont transformée en force. Ce savoir-faire est aujourd’hui utile pour accompagner au mieux leurs nouveaux clients dans cette aventure. 

Falco Schmutz, CEO de premaccess, revient sur cette migration sur le cloud d’AWS. D’après lui, pour tout membre d’une DSI, « participer à la mise en place une architecture cloud demande de prendre du recul par rapport à son propre métier, voire d’en renaître. »

Falco Schmutz

Quels services proposiez-vous au sein de premaccess avant votre passage sur le cloud ?

« Avant notre bascule sur le cloud, nous étions spécialisés dans l’hébergement premium de données sensibles. Nous développions, pour nos clients, des infrastructures sur-mesure que nous hébergions sur nos datacenters, et nous leur proposions des services techniques comme la haute-disponibilité multisites, les services managés… Nous avons effectué ce métier pendant près de 14 ans. »

Migrer vers le cloud : cela était-il évident pour vous dès l’arrivée des cloud providers sur le marché français ?

« Pas forcément ! Début 2016, un membre de premaccess m’informe de l’arrivée d’AWS en France. Il m’interroge : « Souhaite-t-on y aller ? ». À l’époque, j’étais plutôt réticent. Certainement, car j’étais à l’aise dans mon activité, dans l’offre proposée à mes clients…

Mais, j’ai très vite changé d’avis. Deux mois après, je participe à une formation AWS. Formation de trois jours au cours de laquelle je rencontre les DSI de plusieurs grands groupes français. Ces trois jours d’initiation aux outils AWS ont été révélateurs. (Merci à Boris Lecoeur et Arnaud Lemperreur de m’avoir convaincu 🙂 ) J’ai pris conscience de la force d’innovation de ce cloud provider, de sa capacité à réinventer notre métier. J’ai compris qu’il incarnait l’avenir. Et j’ai aussi ouvert les yeux sur notre métier d’hébergeur : si nous continuions comme cela, nous risquions de prendre du retard face à la concurrence, et d’être dans l’incapacité d’innover.

Chez premaccess, nous sommes des mordus de technologie et d’innovation. Fermer les yeux sur l’arrivée des cloud providers en France, c’était aller à l’encontre de notre vision et de la promesse que nous faisons à nos clients : celle de les accompagner vers ce qui est le plus adapté et le mieux sur le marché. Se lancer sur le cloud, c’était suivre nos convictions ! »

Migrer vers le cloud formation equipe

Comment avez-vous procédé lors de votre migration vers le cloud ? Quelles ont été les différentes étapes franchies pour mener à bien ce projet ?

« Notre 1ère réflexion s’est portée sur notre stratégie : part-on sur une stratégie cloud ou bien multi-cloud ? Très vite, nous avons choisi d’adopter une stratégie cloud 100% AWS, car nous aimons l’ADN de ce fournisseur. AWS est toujours à la recherche de la nouvelle innovation pertinente. 

Notre 2e réflexion s’est portée sur notre business model car basculer sur le cloud nous a demandé de le réinventer. Dans ce virage numérique, nous avons beaucoup appris. Nous transmettons ce savoir désormais à nos clients. Sur le cloud, vous êtes dans « l’utilisation à l’usage ». Ce qui diffère avec la logique d’un choix d’achat de logiciel… Ainsi, nous sommes désormais en capacité de répondre aux différentes questions que se posent nos clients sur la gestion financière de leur infrastructure cloud : « Comment facture-t-on sur le cloud », « comment puis-je faire pour que le business de mon entreprise utilise ces technologies à leur juste mesure ? »… Nous avons développé de fortes compétences en FinOps.

Enfin, notre 3e réflexion a concerné la formation des équipes. Créer des architectures cloud demande de l’expertise. Il a fallu que nous formions et modernisions nos équipes. Nous avons beaucoup investi de temps dans la formation, dans des bootcamps, et dans les certifications. Clairement, migrer votre infrastructure sur le cloud implique un changement de paradigme : vous passez du métier d’ingénieur système réseau à devOps. Ce qui n’est pas à la portée de tous. »

Quels sont, d’après vous, les bénéfices du cloud pour une entreprise ? 

« J’en vois 3 majeurs :

Innovation de vos offres : Grâce au cloud, vous accédez facilement à la technologie. La myriade de microservices disponibles sur le cloud d’AWS vous permet de tester de nouvelles offres plus rapidement avant de les mettre sur le marché. Il vous permet de réduire vos cycles d’innovation. Cela est un bénéfice primordial à l’heure de la transformation digitale des entreprises.

Automatisation : vous pouvez piloter plus simplement vos infrastructures. De quoi faire gagner du temps à vos équipes techniques (encore plus avec une solution comme BAM qui nous avons développé pour faire cette migration et la rendre accessible à nos clients).

Sécurité : les cloud providers disposent d’une liste de conformités (compliances) incroyables. Quand on sait le temps que cela implique en termes de régulation, de vérification, de sécurité… Il est impossible de tenter de les concurrencer dans ce domaine. »

Quels conseils souhaiteriez-vous donner aux entreprises qui envisagent de migrer sur le cloud ?

« Mon premier conseil concerne l’investissement humain. Ne sous-estimez pas le temps que cela demande de se former, de changer les mentalités, d’engager les équipes pour qu’elles s’approprient ce nouveau projet. N’hésitez pas à trouver des ambassadeurs, acteurs de ce changement, au sein de vos équipes.

Deuxième conseil : Ne sous-estimez pas l’apport des personnes qui ont migré leur infrastructure sur le cloud avant vous. Elles savent de quoi vous parlez, elles comprennent parfaitement les difficultés que vous rencontrez (techniques et humaines).

Enfin, mon troisième conseil portera sur la partie financière : en migrant sur le cloud, vous obtiendrez un gain à long terme. Il ne faut pas s’attendre à ce que cela ait un impact sur vos finances tout de suite. Ce type de projet demande beaucoup de changements. Pendant un temps, par exemple, vous pouvez vous retrouver avec des doublons d’infrastructures sur un hébergement classique et sur le cloud. Par ailleurs, les équipes doivent être prêtes, formées pour porter de nouveaux projets avec ces nouveaux outils techniques. En fonction de la taille de votre structure, vous aurez un gain financier significatif au bout de 3 à 6 ans. »

Maintenant « Advanced consulting partner AWS », premaccess accompagne de nombreuses entreprises dans leur projet de migration. Son équipe marque la différence par rapport aux concurrents « 100% cloud natives » : 

  • Elle connaît le métier d’AWS sur le bout des doigts.
  • Elle comprend les enjeux d’un tel projet pour une entreprise, pour l’avoir elle-même expérimenté.

Aussi, si vous souhaitez migrer toute ou une partie de votre activité sur le cloud, n’hésitez pas à vous entourer d’experts dans ce domaine. 

Pour en savoir + à ce sujet, découvrez plusieurs de nos articles :

Migrer vers le cloud : les principales étapes

#1 Visualisez le panorama
#2 Entrez dans un nouveau monde
#3 Envisagez la phase de Build
#4 Garantissez la continuité du business
#5 Maîtrisez sa phase de Run
#6 Faites confiance aux experts DevOps / Developpeurs
#7 Choisissez la région la plus proches de vos besoins

Pour en savoir https://www.premaccess.com/migration-aws/

Depuis son application en mai 2018, le Règlement Général sur la Protection des Données (RGPD, dit GDPR en anglais « General Data Protection Regulation ») impose davantage de rigueur et de transparence dans le traitement des données personnelles sur les plateformes numériques (sites, applications, etc.). 

Quelle que soit votre activité (grande entreprise, organisation publique…), vous êtes amené à traiter des données personnelles via vos systèmes d’information. Mais employez-vous correctement les “best practices” en matière de sécurité et de conservation des datas ? 

Si vous avez déployé votre infrastructure sur un cloud public (AWS, Google Cloud, Azure, etc.), le principe de la responsabilité partagée s’applique dans la mise en oeuvre de cette conformité. En clair : le cloud provider est responsable de la sécurité du cloud. En tant qu’utilisateur, vous êtes responsable de votre sécurité et de votre conformité sur cet espace.

RGPD données personnelles AWS Responsabilité partagée cloud

Bien conscients de la difficulté que cela représente, les cloud providers ont créé plusieurs outils pour vous permettre d’être en règle. C’est le cas d’AWS. 

Qui doit appliquer le RGPD ? Qu’entend-on par données personnelles ? Comment les chiffrer ? Comment mettre en place une surveillance et un contrôle d’accès ? Découvrez, dans cet article, l’ensemble des informations pour y voir + clair sur ce vaste sujet, ainsi que les services disponibles chez AWS pour être « RGPD friendly ». 

Qui est concerné par le RGPD ? Qu’est-ce qu’une donnée personnelle ?

Avant toute chose, redéfinissons ce règlement et ce qu’est une donnée personnelle. 

Le Règlement Général sur la Protection des Données

Il encadre le traitement des données personnelles sur le territoire de l’Union européenne. Il renforce le contrôle par les citoyens de l’utilisation qui peut être faite des données les concernant. Il harmonise ce sujet à l’échelle de l’Europe. 

Toute organisation, publique et privée, qui traite des données personnelles pour son compte ou non, est concernée par ce texte dès lors  :

  • qu’elle est établie sur le territoire de l’Union européenne,
  • et/ou que son activité cible directement des résidents européens.
RGPD données personnelles Consentement données personnelles formulaire

La donnée personnelle

C’est une information à partir de laquelle un individu peut être identifié ou identifiable.

Une personne peut être identifiée :

  • directement (exemple : nom, prénom)
  • ou indirectement (identifiant, n° client, numéro de téléphone…).

L’identification peut être réalisée :

  • à partir d’une seule donnée (numéro de sécurité sociale…)  
  • à partir du croisement d’un ensemble de données.

La protection de ces données repose sur 5 grands principes applicables sur tout support, qu’il soit numérique ou non :

  • Le principe de finalité : la collecte a un but bien précis.
  • Le principe de proportionnalité et de pertinence : nous ne récoltons que les données dont nous avons besoin.
  • Le principe d’une durée de conservation limitée : il n’est pas possible de conserver des informations sur des personnes physiques pour une durée indéfinie. Une durée de conservation précise doit être fixée, en fonction du type d’information enregistrée et de la finalité du fichier.
  • Le principe de sécurité et de confidentialité : vous devez garantir la sécurité et la confidentialité des informations que vous détenez. Vous devez en particulier veiller à ce que seules les personnes autorisées aient accès à ces informations.
  • Les droits des personnes et le principe de consentement : les personnes concernées doivent être informées de la manière dont leurs données sont traitées et elles doivent pouvoir donner leur consentement.

RGPD & données personnelles : les droits des utilisateurs et vos obligations  

Nous pouvons vous en citer 4 :

Droit à la portabilité des données :

Les individus ont le droit de copier toutes les données personnelles que vous avez à leur sujet. Ces données doivent être fournies de manière à faciliter leur réutilisation.

Droit à l’oubli :

Cela donne aux individus le droit de réclamer l’effacement de certaines données personnelles, de façon à les rendre inaccessibles à des tiers.

Protection des données dès la conception :

Dès la phase initiale de conception d’un service, vous devez respecter les règles, recommandations et consignes en rapport avec la protection des données.

Notification en cas de fuite de données :

En cas de fuite de données, vous devez notifier l’autorité de supervision concernée dans les 72 heures. S’il y a un risque élevé d’atteinte aux droits et libertés des individus, vous devez également les informer.

AWS centre reglement general protection données rgpd

Le cloud AWS respecte-t-il le RGPD ?

OUI

Lors de l’entrée en vigueur de ce règlement européen, en 2018, AWS a réalisé un audit de conformité au RGPD certifiant que l’ensemble de ses services et fonctionnalités respectent bien les normes les plus élevées en matière de confidentialité et de protection des données personnelles. 

Par ailleurs, ce cloud provider dispose de certifications : ISO 27017 dédiée à la sécurité du cloud computing, et ISO 27018 dédiée à la protection des données personnelles dans le Cloud.

Quels sont les services proposés par AWS pour aider à vous  mettre en conformité avec le RGPD ?

En fonction de vos besoins, voici plusieurs services et fonctionnalités mises à votre disposition par AWS pour respecter les exigences du texte européen.

Chiffrez vos données 

RGPD Chiffrement des données personnelles outils AWS
  • Chiffrement de vos données au repos avec AES256 (EBS/S3/Glacier/RDS)
  • Gestion centralisée des clés via Key Management Service (par région AWS)
  • Tunnels IPsec vers AWS avec les passerelles VPN
  • Modules HSM dédiés dans le cloud avec AWS CloudHSM

Contrôle d’accès : restreignez l’accès aux ressources AWS aux administrateurs, utilisateurs et applications autorisés

Contrôle d'accès : restreignez l'accès aux ressources AWS aux administrateurs, utilisateurs et applications autorisés
  • Authentification multi-facteurs (Multi-Factor-Authentication, MFA)
  • Accès granulaire fin aux objets dans des compartiments Amazon S3 / Amazon SQS/ Amazon SNS et d’autres services
  • Authentification par requête d’API
  • Restrictions géographiques
  • Jetons d’accès temporaires via AWS Security Token Service

Surveillance et fichiers journaux : obtenez une présentation des activités concernant vos ressources AWS

Surveillance et fichiers journaux : obtenez une présentation des activités concernant vos ressources AWS
  • Gestion et configuration des ressources avec AWS Config
  • Audits de conformité et analyses de sécurité avec AWS CloudTrail
  • Identification des difficultés de configuration avec AWS Trusted Advisor
  • Fichiers journaux granulaires fins des accès aux objets Amazon S3

  • Informations détaillées sur les flux du réseau via Amazon VPC-FlowLogs
  • Vérifications et actions de configuration reposant sur des règles avec AWS Config Rules
  • Filtrage et surveillance des accès HTTP aux applications avec les fonctions WAF d’AWS CloudFront

AWS propose, par ailleurs, 4 services particulièrement intéressants pour vous accompagner dans cet objectif « RGPD friendly » :

  • Amazon GuardDuty est un service géré de détection des menaces, qui surveille en continu les comportements malveillants ou non autorisés.
  • Amazon Macie utilise le machine learning pour surveiller et protéger les données stockées dans Amazon S3.
  • Amazon Inspector est un service d’évaluation de la sécurité automatisée. Il permet de renforcer la sécurité et la conformité de vos applications déployées sur AWS.
  • AWS Config Rules est un service de monitoring. Il vérifie la conformité des ressources cloud aux règles de sécurité.

Enfin, si vous souhaitez aller encore plus loin sur ce sujet, AWS a publié un livre blanc intitulé « Navigating GDPR Compliance on AWS ». Cet ouvrage explique comment adapter les exigences du RGPD à chaque service AWS, avec un focus sur ceux concernant le monitoring, l’accès aux données, et la gestion des clefs.

En tant que décideurs, chef de projet ou DSI, si vous souhaitez savoir si vous être en règle avec le RGPD ou bien vous mettre en conformité, n’hésitez pas à contacter l’équipe de premaccess. Experte AWS, elle vous conseillera et vous proposera un accompagnement sur-mesure adapté à vos besoins.

Pour aller + loin :

FAQ à propos de la conformité AWS au RGPD

Tous les services d’AWS sont-ils conformes au RGPD ?

OUI. Amazon Web Services certifie que l’ensemble de ses services et fonctionnalités disponibles respectent les normes les plus élevées en matière de confidentialité et de protection des données personnelles imposées par le RGPD. AWS souhaitait se mettre en conformité avec le Règlement deux mois avant son entrée en vigueur, le 25 mai 2018, afin d’offrir, tant à ses clients qu’à ses partenaires, un environnement dans lequel ils peuvent développer leurs propres produits, services et solutions conformes au RGPD.

Quels sont les conseils d’AWS pour réussir sa conformité au RGPD

1. Impliquer les dirigeants
2. Centraliser les efforts de mise en conformité au RGPD
3. Travailler en direct avec l’équipe juridique et  direction technique
4. Penser avant tout à protéger les personnes
Pour en savoir +

Depuis plusieurs années, vous avez pu utiliser la fonctionnalité de gestion du cycle de vie de AWS S3 pour contrôler la classe de stockage et la durée de vie de vos objets. 

Depuis mars dernier, une fonctionnalité a été ajoutée à ce service : le téléchargement incomplet d’objet en plusieurs parties. Ce chargement partitionné vous permet de télécharger un objet unique constitué d’un ensemble de parties. Une fois que toutes les parties de cet objet sont chargées, Amazon S3 présente les données comme un seul objet. 

Grâce à cette fonction, vous pouvez gérer des téléchargements en parallèle, mettre en pause et reprendre le chargement d’un objet, mais aussi commencer les chargements avant de connaître la taille totale de l’objet.

Qu’est-ce que le téléchargement incomplet d’objet en plusieurs parties ?

La fonction de téléchargement partitionné d’AWS S3 accélère le transfert d’objets volumineux en vous permettant de les diviser en plusieurs parties logiques qui peuvent être téléchargées en parallèle. 

Si vous lancez un téléchargement en plusieurs parties, mais que vous ne le terminez pas, le téléchargement en cours va occuper de l’espace de stockage et entraînera des frais de stockage. 

Cependant, ces téléchargements ne sont pas visibles lorsque vous répertoriez le contenu d’un bucket. Ils doivent impérativement être supprimés. S’ils ne sont pas supprimés, l’espace de stockage consommé par ces chargements continuera à être facturé.

Comment savoir si un bucket contient des téléchargements partitionnés ?

Voici un petit script qui peut vous aider à trouver quel bucket a des téléchargements en plusieurs parties :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - Téléchargements partitionnés

Ce script donnera une réponse comme celle-ci :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - Téléchargements partitionnés

« True » signifie que ce compartiment a des téléchargements en plusieurs parties. « False » signifie qu’il n’en contient pas.

Comment puis-je obtenir une liste de téléchargements partitionnés ?

Voici un autre script qui vous aidera à obtenir une liste de téléchargements partitionnés :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - listes Téléchargements partitionnés

Comment éviter le coût inutile des téléchargements incomplets en plusieurs parties ?

Pour cela, il est possible de configurer un cycle de vie dédié à ces téléchargements. Une fois le temps imparti achevé, ils seront automatiquement supprimés de l’espace de stockage. 

Vous pouvez les configurer à l’aide de l’AWS Management Console, de l’interface de ligne de commande AWS (CLI) ou des outils AWS pour Windows PowerShell.

1. Commencez par ouvrir la console et accédez au bucket souhaité :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

2. Cliquez ensuite sur “Properties”, ouvrez la section “Lifecycle” et cliquez sur “Add rule” :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

3. Choisissez votre cible (le bucket entier ou le sous-ensemble préfixé de votre choix) puis cliquez sur “Configure Rule” :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

4. Activez ensuite la nouvelle règle et sélectionnez la période d’expiration souhaitée :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

Vous souhaitez davantage d’informations sur ce nouveau service AWS, n’hésitez pas à contacter l’équipe de premaccess. Spécialisée dans le cloud d’AWS, elle vous conseillera sur ce sujet. 

Pour aller plus loin sur la FinOps

FAQ à propos d’Amazon S3

Qu’est-ce qu’Amazon S3 ?

Amazon S3 est un stockage d’objets conçu pour stocker des données. C’est un service de stockage simple qui offre une infrastructure de stockage de données extrêmement durable, hautement disponible et infiniment évolutive à des coûts très faibles.

La tarification S3

Lors du choix de la classe de stockage S3 idéale pour votre profil de données, vous devez prendre en compte quatre éléments de coûts : la tarification du stockage, la tarification des requêtes et de l’extraction des données, la tarification du transfert des données et de l’accélération du transfert des données et la tarification des fonctions de gestion des données. Pour en savoir + > https://aws.amazon.com/fr/s3/pricing/

Lorsque vous stockez des objets dans le AWS S3, vous ne payez pas seulement pour l’objet stocké, mais vous accédez généralement à ces objets d’une certaine manière.

Si votre compte AWS est relativement récent (moins de 12 mois), vous pourrez probablement bénéficier du volet gratuit. Cela signifie 5 Go de stockage gratuit + 20 000 demandes GET et 2 000 demandes PUT. N’oubliez pas que cette offre expire au bout de 12 mois à compter de la création du compte.

Nous avons donc 3 éléments dans notre facture pour réduire votre facture AWS S3.

Stockage : Selon le type de stockage que vous choisissez pour votre Bucket, c’est le prix que vous payez par Go de données stockées. Vous avez 3 types, Standard, Standard-IA (accès peu fréquent) et Glacier et le prix varie en fonction de la région où votre bucket est créé.

Demandes : Il s’agit essentiellement du nombre d’appels effectués à l’API S3 pour récupérer les objets. Le prix dépend du type de requête (les requêtes DELETE sont gratuites), de la région et du type de stockage.

Vous pourriez également voir sur votre facture des choses comme :

  • Amazon Simple Storage Service EU-Requests-Tier1 : Il s’agit des demandes PUT, COPY, POST, ou LIST.
  • Amazon Simple Storage Service EU-Requests-Tier2 (Service de stockage simple Amazon EU-Requests-Tier2) : Ceci est pour les demandes GET et toutes les autres demandes.
  • Amazon Simple Storage Service EU-Requests-Tier3 (Service de stockage simple Amazon EU-Requests-Tier3) : Il s’agit des demandes concernant les glaciers.
  • Amazon Simple Storage Service EU-Requests-Tier4 : Il s’agit du nombre de transitions vers l’accès standard peu fréquent que vous avez demandé.

Transfert de données : Ceci est mesuré en entrée (IN) et en sortie (OUT). La bonne chose est que les données IN sont gratuites. Le transfert OUT dépend de l’endroit et de la manière dont vous envoyez les données. Si vous transférez des données à une autre instance EC2 dans la même région, c’est gratuit. N’oubliez pas d’utiliser les terminaux VPC S3 pour économiser encore plus d’argent.

Vous avez la liste des prix sur le site Amazon S3 ici, attention, elle change très souvent.

Maintenant, comment puis-je mesurer en temps réel combien j’utilise AWS S3 ?

Avec la nouvelle console de gestion S3 (vous devez l’activer dans votre compte AWS), vous avez la liste des buckets.

Reduire facture S3 AWS, selectionnez votre bucket

Lorsque vous sélectionnez l’un d’entre eux, choisissez l’onglet Gestion (Management) en haut de la page.

Reduire facture S3 AWS, Allez dans Management Tab

Reduire facture S3 AWS, Cliquez sur Metrics

Ensuite, choisissez Métriques (Metrics)

Ici, vous pourrez choisir entre Stockage (Storage), Demandes (Requests) ou Transfert de données (Data Transfer). Il convient de préciser que la mesure de stockage est la seule qui soit Gratuite.

Je vous recommande vivement de garder un œil sur vos factures AWS et d’analyser celle-ci via l’outil Cost Explorer, vous trouverez de nombreuses façons d’économiser de l’argent et de recevoir les félicitations de votre patron 😉 !

#FinOps Addict 🙂 AWS Cost Killing

Aller plus loin : 

Article Premaccess = FinOps : comment réduire les couts sur AWS ?

Premaccess  = découvrir notre accompagnement avec notre équipe consulting

Les éditeurs d’applications SaaS le savent bien : les infrastructures fixes, appelées single-tenant, sont faciles à déployer mais ont leurs limites notamment en terme de maintenance. C’est pourquoi nous vous conseillons vivement de passer au multi-tenant. Nombre d’entre vous hésitent à franchir le pas.
Votre crainte : que les données de vos clients ne soient pas sécurisées.
Pourtant, sur AWS, cela est possible grâce à l’alliance de trois microservices : Cognito, IAM et DynamoDB. 

Après avoir expliqué ce qu’est une architecture multi-tenant, nous vous présentons comment utiliser ces trois services sur AWS pour la mettre en œuvre.

Qu’est-ce qu’une infrastructure multi-tenant ?

Avant d’aller plus loin, expliquons le terme « Tenant » : en anglais, il signifie « Locataire », « Client ». Chaque client rassemblant un « groupe d’utilisateurs ».

Modèle single-tenant

Dans une architecture single-tenant, une seule application est utilisée par plusieurs clients, mais chacun a sa propre version de l’application installée dans une instance dédiée. 

Ce modèle a plusieurs avantages :

  • Séparation franche entre chaque client, et donc entre chaque version de l’application.
  • Les données du client A ne sont pas mélangées avec celles du client B.
  • Chaque client possède sa propre base de données et son propre serveur d’application.
single-tenant : chaque client à sa propre infrastructure

single-tenant : chaque client à sa propre infrastructure.

Mais, très vite, il peut être compliqué à administrer. En effet :

  • Plus les clients vont être nombreux, plus il est difficile de gérer les différentes versions de l’application sur chaque infrastructure.
  • Le coût fixe pour chaque infrastructure peut être pénalisant pour les clients à faible trafic.
  • À partir de 100 clients, il est impératif d’automatiser la gestion des infrastructures, notamment avec des solutions comme BAM*.
  • À partir de 1 000 clients, ce n’est pratiquement plus gérable.

Modèle multi-tenant

À la différence, dans une architecture multi-tenant, une seule instance d’application va servir à plusieurs clients. Les ressources (et notamment les bases de données) y sont mutualisées. 

multi-tenant : une infrastructure pour plusieurs clients

multi-tenant : une infrastructure pour plusieurs clients.

Avec une seule infrastructure globale, au lieu d’une par client :

  • Il est plus facile d’en assurer la maintenance : lorsqu’une modification est apportée à un fichier, elle profite à tous les clients. Les mises à jour sont plus simples à assurer.
  • Vous réduisez vos coûts d’utilisation sur le cloud.
  • Les temps de réponse sont bien plus rapides.
  • La gestion des clients est simplifiée, qu’ils soient au nombre de 10 ou 10 000. 

En contrepartie, comme les données des clients sont mélangées, il faut que le logiciel soit développé pour séparer de manière logique les données des clients. Nous verrons plus loin que les technologies intégrées à AWS permettent de résoudre cette difficulté facilement. 

Modèle hybride

Il existe aussi une approche hybride qui permet d’optimiser son infrastructure sans avoir à faire beaucoup de modifications dans son application.

Approche hybride : mutualisation de l'application avec plusieurs bases de données dans la même instance

Approche hybride : mutualisation de l’application avec plusieurs bases de données dans la même instance.

Dans une approche hybride, seule l’application est mutualisée. Dans ce cas, chaque client dispose d’une base de données dédiée dans la même instance, ainsi que d’un login et d’un mot de passe.  Cette solution a l’avantage d’être facile à mettre en œuvre tout en commençant à faire des économies d’échelles sur les coûts d’infrastructures.

Comment faire du multi-tenant avec AWS ?

Lors de la création d’une architecture multi-tenant, l’enjeu crucial est, bien sûr, de sécuriser les datas afin qu’elles ne soient pas accessibles par tous.

Les développeurs d’applications SaaS doivent être en mesure d’identifier un utilisateur, de relier une donnée à son locataire, mais également un utilisateur à son locataire, et de savoir quels droits ont été concédés à tel ou tel user. 

Pour cela, sur le cloud d’AWS, nous vous conseillons d’associer les services DynamoDB, Cognito et IAM.

Organisez vos bases de données avec DynamoDB

Dans DynamoDB, chaque table, présente dans votre base de données, doit avoir une colonne permettant de stocker une référence au Tenant. En règle générale, il s’agit d’un identifiant client (organizationId). 

DynamoDB Dans cet exemple, la colonne “OrganizationId” permet de stocker la référence au Tenant

Dans cet exemple, la colonne “OrganizationId” permet de stocker la référence au Tenant.

Créez vos utilisateurs

En parallèle de cette gestion des tables, Amazon Cognito vous permet d’ajouter des utilisateurs à vos applications SaaS. Dans une infrastructure multi-tenant, ce service va lister les différents clients (et donc leurs utilisateurs et leurs groupes) ainsi que leurs identifiants. Par ailleurs, il va associer des attributs personnalisés à chaque utilisateur en fonction du locataire auquel il est lié afin de sécuriser son authentification, et gérer ses autorisations.

De plus, AWS gère pour vous toute la sécurité et la connexion. Tous les derniers standards, notamment les authentifications à multiples facteurs, sont disponibles sans développement de votre part.

Chaque utilisateur est membre d’un groupe. Vous pouvez ainsi gérer les accès aux données de manière fine en fonction des groupes.

Définissez des règles de sécurité

Enfin, avec IAM (Identity and Access Management), vous allez définir les règles de sécurité (polices) associées à chaque groupe. Grâce à ces règles, des filtres (LeadingKey) seront créés dans la base de données DynamoDB. Ainsi, l’utilisateur accédera exclusivement à la donnée liée au filtre. Il sera dans l’incapacité de voir le reste, comme s’il était dans une enclave dédiée.

IAM Dans cet exemple, les règles limitent aux personnes membres du groupe l’accès aux données ayant comme clé d’accès le code du client.

Dans cet exemple, les règles limitent aux personnes membres du groupe l’accès aux données ayant comme clé d’accès le code du client.

Conclusion

Entre le single-tenant et le multi-tenant, nous vous conseillons de choisir le second modèle d’infrastructure car il présente des atouts considérables : maintenance facilitée, frais allégés, gestion des clients simplifiée…

Par ailleurs, grâce à l’association des trois services d’AWS (DynamoDB, Cognito et IAM), la sécurité des données y est garantie. Et la gestion des droits d’accès aux données des clients n’est pas à faire par le développeur dans son code. Elle est gérée de manière séparée avec AWS. Cela présente plusieurs avantages :

  • La gestion du multi-tenant est indépendante du reste du code.
  • Plus généralement, la gestion du contrôle d’accès aux données est ainsi indépendante du code de l’application SaaS.
  • Il est possible d’utiliser d’autres services pour réaliser des statistiques sur les données par clients, avec QuickSight notamment.

* BAM (Build Automation Machine) est une solution innovante créée par premaccess. Elle permet d’automatiser la gestion et le cycle de vie de vos infrastructures et leur déploiement chez AWS. 

Aller plus loin :

Article AWS : https://aws.amazon.com/fr/partners/saas-factory/tenant-isolation/

Nos services : https://www.premaccess.com/#services

Premaccess  = Contactez notre équipe d’experts pour vos Services Managés Cloud

Développement  = Découvrir notre accompagnement pour vos développements SaaS ou Logiciel

Le 18 novembre dernier, AWS a annoncé la sortie de son AWS CloudFormation Registry et CLI, une extension d’AWS CloudFormation prenant en charge la création de ressources tierces via la console AWS CloudFormation. C’est également la première fois que le service AWS est associé à des partenaires de lancement tels que Spotinst et Fortinet.


Maintenant, grâce à la prise en charge de ces ressources tierces, AWS améliore toute la pratique de la création d’infrastructure dans le cloud, car le provisionnement s’étend désormais au-delà des ressources AWS pour inclure également des outils SaaS en provenance d’autres fournisseurs, renforçant la façon dont nous construisons dans le cloud.

Par conséquent, le but de cet article est de montrer l’importance d’IaC ‘Infrastructure as Code’ dans le domaine du cloud computing et de souligner l’importance des développements d’AWS pour son service AWS CloudFormation.


Les principes de l’IaC

IaC, abréviation de Infrastructure as Code, est la pratique selon laquelle les ressources sont décrites  par des scripts par opposition à l’utilisation de consoles de gestion qui permettent de créer manuellement des environnements de ressources.
Par conséquent, dans le cas d’AWS CloudFormation, vous n’avez pas besoin d’utiliser la console AWS ou de SDK pour créer des ressources AWS.
De plus, avec AWS CloudFormation Registry, vous avez plus besoin d’utiliser la console d’outils tiers pour utiliser leurs ressources.

Ces scripts lisibles permettent le déploiement automatique des ressources ainsi que les services requis qui vont avec. En effet, les outils IaC vont créer toutes les ressources nécessaire comme par exemple : les réseaux, les machines virtuelles, les équilibreurs de charge et les différents accès pour vos applications.


De plus, chaque fois qu’un script IaC est appliqué, il en résulte toujours le même environnement que celui décrit dans le script.

Par conséquent, les avantages deviennent évidents. L’IaC est une pratique courante pour les DevOps car l’objectif du DevOps est de réaliser l’automatisation du processus de production. En effet, avec l’IaC, nous sommes en mesure d’automatiser la construction de l’infrastructure, ce qui est encore plus crucial dans les environnements cloud.


Même si les environnements cloud soustraient une grande partie de l’architecture sous-jacente aux développeurs, ils nécessitent des configurations fastidieuses des ressources dépendante des contraintes du cloud provider choisi.
Par conséquent, les services IaC tels qu’AWS Cloudformation fournissent une certaine forme de répit face au besoin de configurations répétitives.

D’autres avantages incluent l’indépendance entre les états et les modèles.
Étant donné que l’IaC nous permet de modéliser notre infrastructure dans un format basé sur un script, nous pouvons définir l’état souhaité de notre infrastructure cloud.
Par conséquent, si l’infrastructure s’écarte trop de l’état souhaité, nous pouvons automatiser sa récupération à l’aide du modèle initialement utilisé.

De même, nous pouvons utiliser le même modèle pour répliquer l’état souhaité dans plusieurs environnements (Production/Pré-Production/Recette par exemple). Ceci est extrêmement avantageux à des fins de test, car cela permet  d’avoir des scénarios réels. Ainsi, au lieu d’avoir à configurer ardûment chaque composant pour refléter l’infrastructure à tester, nous pouvons simplement automatiser le provisionnement d’une infrastructure identique, suivi de tests automatisés facilités par les différents outils de CI / CD mis à disposition par le Cloud Provider.

Par conséquent, les outils IaC peuvent être considérés comme des livres  de recettes pour notre infrastructure cloud.
En fait, l’utilisation de cette analogie de livre de recettes pour les services IaC est si courante que Jeff Barr – Chief Evangelist d’AWS a habilement intitulé son blog d’introduction d’AWS CloudFormation https://aws.amazon.com/blogs/aws/cloudformation-create-your-aws-stack-from-a-recipe/, en 2011.

Cependant, les gens ne réalisent pas que les outils IaC ne sont pas comme vos livres de recettes ordinaires, mais plutôt comme des cuisines entièrement automatisées qui analysent ces recettes et cuisinent des infrastructures cloud complètes pour vous.

Nous pouvons convenir que l’IaC, en général, est impératif pour une expérience DevOps complète. La question est maintenant de savoir quels services le plus grand fournisseur de cloud, AWS, fournit en termes d’IaC ?
Avant, la réponse était CloudFormation et son générateur CDK (AWS Cloud Development Kit).


CloudFormation et ses avantages avec CloudFormation Registry

AWS CloudFormation fournit un langage commun pour vous permettre de décrire et de provisionner toutes les ressources d’infrastructure dans votre environnement cloud.
https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/registry.html

CloudFormation vous permet de définir les ressources AWS souhaitées ainsi que leurs configurations et connexions dans des documents de plan directeurs appelés modèles CloudFormation. Ces modèles sont ensuite exécutés dans la console AWS CloudFormation pour provisionner l’infrastructure définie.
Ce faisant, le service garantit que les composants de l’infrastructure cloud sont déployés de la bonne manière en fonction des dépendances décrites dans le modèle CloudFormation.

Par exemple, si vous souhaitez qu’une instance EC2 s’exécute dans un VPC, CloudFormation garantit que le VPC est d’abord provisionné, puis l’instance EC2.
Cela signifie également que nous n’avons plus besoin d’utiliser la gestion AWS pour configurer et ajouter manuellement l’instance EC2 dans le VPC.

Cependant, un domaine que AWS CloudFormation n’avait pas était le provisionnement des ressources tierces. Oui, les ressources AWS constituent le cœur de l’infrastructure de l’application, mais ces composants communique très probablement avec des outils SaaS tiers quelque part dans le flux de travail de vos applications.
Pour revenir à l’exemple d’une instance EC2 dans un VPC, nous pouvons avoir besoin de cette instance EC2 pour ensuite interagir avec l’API Stripe.

Par conséquent, même si nous avons réussi à automatiser avec vos DevOps du côté AWS, nous ne disposions toujours pas d’outils lorsqu’il s’agissait de connecter nos infrastructures tiers à l’infrastructure AWS principale.
Cela nous ramènerait souvent à la case départ car les avantages de l’IaC discutés ci-dessus étaient limités aux seules ressources AWS.

C’est là qu’intervient AWS Cloud Registry !

Désormais, avec la nouvelle version, la capacités d’AWS CloudFormation a ce connecter sur les ressources externes est résolu. Le registre AWS CloudFormation permet le provisionnement de ces outils tiers externes avec les ressources AWS.

Avec la sortie de ce nouveau service, il y a un total de sept outils SaaS offrant leurs ressources sur le registre.
Par exemple, avec la prise en charge d’Atlassian Opsgenie par le registre AWS CloudFormation, vous pouvez désormais provisionner des ressources Opsgenie telles que des utilisateurs, des équipes et des intégrations avec vos ressources AWS.
Vous pouvez donc automatiser la configuration des services de gestion des incidents Opsgenie dans votre infrastructure AWS.

Cela signifie que nous pouvons désormais bénéficier davantage des pratiques DevOps, car AWS a étendu ses services IaC sur des piles de technologies externes et ne se limite pas uniquement à AWS.
De plus, AWS CloudFormation Registry est open source, de sorte que la communauté peut constamment créer plus de ressources personnalisées qui peuvent être provisionnées automatiquement via l’AWS CloudFormation CLI. Cela améliore l’adoption du cloud, en particulier en utilisant le IaC pour déployer vos architectures AWS.


Un pas de plus avec AWS CloudFormation CLI

AWS CloudFormation fournit des ressources tierces à inclure dans les livres de recettes de vos infrastructures cloud souhaitées.


Si nous devons suivre cette analogie de recette, le registre CloudFormation peut être considéré comme votre garde-manger de ressources, où votre garde-manger stocke les ressources fournies par les partenaires SaaS tiers.

La question est alors de savoir si vous souhaitez étendre ce garde-manger?

C’est là que le composant CLI entre dans la nouvelle version d’AWS CloudFormation. L’AWS CloudFormation CLI nous fournit un ensemble d’ustensiles qui nous permet de créer nos propres ressources personnalisées que nous pourrons ensuite inclure dans les modèles AWS CloudFormation, ce qui nous donne la liberté d’étendre nos garde-manger à l’infini.

AWS fournit la CFN ( CloudFormation Command Line Interface ) qui nous permet d’initialiser nos projets de ressources personnalisés, et génère automatiquement la structure de code de base pour nous et ensuite nous permet de tester nos ressources construites tout en l’enregistrant dans nos registres AWS CloudFormation privé .

AWS nous fournit un ensemble complet de ressources pour commencer à créer ces nouvelles ressources. De plus, la poussée de l’open source avec AWS CloudFormation open source signifie que nous pouvons nous attendre à ce que beaucoup de bibliothèque de ressources soit disponible et facile à inclus dans nos modèles AWS CloudFormation.

Améliorant ainsi toute l’expérience d’utilisation du service IaC, augmentant la vitesse avec laquelle nous construisons dans le cloud.


Récapitulatif de ce que AWS CloudFormation signifie pour le DevOps

Avec le registre AWS CloudFormation et l’interface CLI, nous voyons les avantages d’avoir des ressources tierces non AWS dans nos processus d’infrastructure cloud.

Nous pouvons être assurés que l’utilisation d’AWS CloudFormation pour des applications et la gestion des infrastructures cloud couvre désormais l’intégralité de votre besoins et pas seulement des ressources AWS spécifiques.

La flexibilité de l’AWS CloudFormation CLI et la fiabilité de l’expansion du registre AWS CloudFormation ne peuvent que signifier qu’avec le temps, comme de plus en plus de ressources seront disponibles, nous pouvons nous attendre à ce que le développement dans le cloud deviennent beaucoup plus facile. Nous ne devons plus réinventer la roue, il nous suffit maintenant de nous soucier de la destination.

Bonne lecture ! Contactez-nous si vous avez des besoins en Développement ou en Service Managés Cloud.

Qui n’a pas connu cette frustration de devoir renvoyer un vêtement ou une paire de chaussures, aussitôt reçus par La Poste, suite à une erreur de taille ? Pour éviter ces imprévus lors des commandes en ligne, la start-up Fitizzy a mis au point un algorithme particulièrement intelligent. Il recommande à l’internaute la taille qui lui convient le mieux en fonction de ses mensurations et des patronages de différentes marques. 

Dédié initialement au prêt-à-porter grand public, partenaire de grandes marques comme Promod, Naf Naf, Celio, Cyrillus ou bien Etam pour la lingerie, Fitizzy s’ouvre depuis deux ans au secteur professionnel.

L’apparition de cette offre B2B a été possible suite à la bascule des applications de Fitizzy dans le cloud AWS et à l’utilisation des microservices proposés par ce cloud provider. Lors de cette étape stratégique, la start-up a été soutenue par l’équipe de premaccess techniquement, mais également en termes de business. Christophe Del Fabbro, CTO de Fitizzy, a participé pleinement à cette migration.

Dans cette interview, il revient sur la genèse de Fitizzy, et sur l’offre proposée. Il nous explique également comment l’application a été déployée sur AWS afin d’accélérer le développement de cette entreprise innovante.

Avec Fitizzy, les leaders du prêt-à-porter réduisent leurs taux de retour

« Fitizzy est née en 2013 grâce à Sébastien Ramel et Gaultier Monier. Lorsqu’ils étaient étudiants, tous deux avaient toujours peur d’acheter des vêtements en ligne, car ils n’étaient jamais sûrs de commander la bonne taille. Ils ont cherché des outils pour régler cette problématique. Ils n’ont rien trouvé. C’est ainsi que leur est venue l’idée de monter cette application. 

Dès le début de ce projet, nous nous sommes consacrés au secteur du prêt-à-porter. Notre objectif premier était d’aider nos partenaires à recommander la bonne taille à leurs utilisateurs. Sur leur site e-commerce, et plus précisément sur leurs fiches produits, nous installons notre plugin via un bouton d’action. Lorsqu’il clique sur ce bouton, l’utilisateur doit renseigner plusieurs informations morphologiques (son sexe, son âge, sa taille et son poids). Ces données sont croisées avec les informations techniques de la marque afin de lui fournir une recommandation sur la taille la plus juste. 

Initialement, Fitizzy fournissait aux utilisateurs des recommandations de taille sur un produit donné. Désormais, nous allons plus loin en proposant des recommandations de produit en fonction de votre morphologie. Aujourd’hui, nous mettons ces services à disposition de plus d’une cinquantaine de marques dans le secteur du vêtement et de la chaussure.

Cette application permet clairement de mettre l’internaute en confiance lors de son achat en ligne – il a moins peur de se tromper lors du choix de la taille. De plus, elle réduit considérablement les retours clients suite à une commande en ligne. Ces retours, gratuits pour le consommateur, sont très coûteux pour le distributeur. 

À côté de cela, depuis deux ans, nous avons ouvert un nouveau marché dédié aux vêtements professionnels. De plus en plus d’entreprises ont besoin d’habiller leurs employés. Jusqu’à présent, ces entreprises passaient par des sociétés qui mandatent des agents chargés de relever sur place les mensurations de chaque employé.

Pour réduire ces coûts de déplacement, nous avons eu l’idée de créer une plateforme dédiée à la prise de mensuration. Sur cette plateforme, les employés remplissent un formulaire et nous informent sur leur morphologie. En fonction de ces informations collectées, nous produisons des recommandations de taille. Ainsi, il y a moins d’erreurs dans le nombre de modèles à produire, et les frais de gestion et livraison sont réduits.

Dans ce secteur, nous travaillons notamment avec Bragard, leader dans les vêtements professionnels pour la cuisine, les métiers de bouche et l’hôtellerie, ainsi qu’avec CWS-Boco, spécialiste dans les vêtements de chantier. »


Des architectures plus souples et plus flexibles grâce à AWS

« Notre application a basculé sur le cloud d’AWS il y a plus de deux ans. Il y avait un grand intérêt à faire ce pas car, à l’époque, nous travaillions encore sur des serveurs hébergés. Du coup, nous n’avions pas toute la souplesse qu’offre AWS et leurs services managés. La conception des nouvelles architectures était plus laborieuse, demandait plus de temps. Et le résultat était souvent plus coûteux que ce que peut nous apporter AWS aujourd’hui. »


Une migration pas à pas 

« Lorsque vous migrez une application sur AWS, trois possibilités s’offrent à vous. 

Soit vous prenez l’existant et vous essayez de le faire entrer tel quel dans AWS. Cela est possible. Il s’agit de la méthode « lift and shift ». Mais, elle coûte cher, car vous n’utilisez pas les fonctionnalités natives du cloud. 

Soit vous repensez toute l’architecture et le code de votre application afin de pouvoir optimiser au maximum les fonctionnalités natives du cloud. On parle alors de « refactoring ».

Dans notre cas, nous avons choisi un entre-deux, nous avons opté pour le « replatform ». Cette méthode permet de tirer parti des fonctionnalités de base du cloud, d’optimiser les coûts, sans engager un niveau de ressources élevé. Ainsi, lors de cette migration, épaulés par l’équipe de premaccess, nous avons pris le temps de préparer les grandes briques de notre application avant d’investir AWS, en évitant le simple « copier-coller ».

Nous avons  :

  • le coeur central, autonome, consacré à notre API.
  • puis nos services, le plugin, nos applications, les plateformes, tout ce qui est « web ». Ces éléments sont indépendants du coeur central.
  • Enfin, nos bases de données. »

Utiliser les données pour améliorer les services e-commerce

« La gestion des données est cruciale dans Fitizzy, notamment pour améliorer nos recommandations. Aussi, lors de notre bascule sur AWS, nous avons investi Amazon Kinesis et la chaîne de services suivants : S3 + Athena + QuickSight grâce au soutien des équipes de premaccess

Kinesis est un service managé permettant de collecter, trier et analyser des datas stratégiques des sites marchands de nos partenaires. Pour chacun de nos clients, nous analysons les pages vues, les clics sur notre bouton d’action, l’ouverture de notre plugin, le contenu de notre recommandation, l’ajout au panier, l’achat ou l’abandon de panier. En croisant l’ensemble de ces informations, nous cherchons à affiner nos outils.

L’ensemble de ces données sont mises à disposition de nos clients grâce au service Amazon QuickSight. Via un Dashboard dédié, chaque partenaire retrouve l’ensemble de ces datas sous forme de graphiques. Ces KPIs peuvent être utilisés par son service marketing pour améliorer les performances de son site e-commerce. Elles peuvent également être intéressantes par ses modélistes pour optimiser les nouvelles collections en analysant les données morphologiques du moment. »


Les + de premaccess : l’analyse des enjeux, la maîtrise des coûts et l’expertise AWS

« La force de premaccess tient dans son expertise dans le domaine du développement logiciel, des services managés d’AWS et de la migration. Lorsque nous nous sommes penchés sur ce projet de migration, son équipe a avant tout évalué nos enjeux.

Au-delà de « Est-ce que nous migrons sur AWS ? », notre réflexion s’est plutôt portée sur « Est-ce que cela vaut le coup que nous le fassions maintenant sur AWS et de cette manière ?

Est-ce rentable pour nous de recruter des ressources pour faire ce travail maintenant ou est-ce que cela vaut le coût d’attendre quelques semaines quand nous aurons plus de ressources, plus de budgets ? »

Avant même cette migration, premaccess nous a accompagné sur cette dimension « business » afin que nous optimisions nos finances.

En second temps, ils nous ont énormément conseillé dans le travail préparatoire à la migration, et dans la mise en place du plan d’action. Clairement, même si je suis développeur, je n’avais pas du tout d’expérience sur le cloud d’AWS. Leur participation sur le plan d’action a été très précieuse.

Enfin, une fois le plan de migration validé, une partie de la bascule sur AWS a été réalisée en interne avec le soutien de l’équipe de premaccess. Ils ont aussi pris en charge la partie « Landing Zone et Sécurité » de notre espace sur AWS (création d’utilisateurs, gestion des droits, préparation du réseau et des couches réseau, etc.). Ils l’ont déployée via leur solution SaaS BAM que nous utilisons désormais tous les jours pour nos environnements temporaires.

En partant d’un template bien défini, cet outil crée très rapidement des environnements parfaitement configurés. De quoi nous faire gagner beaucoup de temps. 

Par ailleurs, nous sommes toujours en quête d’efficience. Nous cherchons à normaliser nos technologies sur nos différents projets, à faire en sorte que nos cycles de développement soient similaires d’un projet à un autre. Cela est aujourd’hui facilité avec BAM. Cet outil nous assure une automatisation des processus, et ne laisse aucune place à l’erreur humaine.

Ainsi, nous nous concentrons davantage sur notre développement, sur notre coeur de métier. En tant que développeur, grâce à cette solution, je passe plus de temps à créer des fonctionnalités, à enrichir notre partie business qu’à mettre en place les infrastructures techniques pour nos applications. »


Prochain challenge : proposer Fitizzy en mode SaaS

« Désormais, notre prochain challenge sera de rendre Fitizzy complètement SaaS. Ainsi, n’importe quelle marque pourra configurer notre solution à travers notre interface sans même avoir besoin que nos équipes interviennent. L’idée est aujourd’hui mature. Les premières briques commencent à arriver. 

Clairement, ce nouveau projet aurait été bien difficile à mener sur notre ancienne infrastructure. Grâce à cet investissement sur le cloud d’AWS, il est désormais à notre portée, et ouvre de nouvelles perspectives. 

Dans le développement de Fitizzy, premaccess est aujourd’hui plus qu’un partenaire technique. Son équipe a une telle connaissance du développement logiciel avec AWS qu’elle nous aide à améliorer notre business et étoffer notre offre. Je pense notamment à ses conseils sur les services managés liés à la gestion des données et le serverless. De quoi avoir un coup d’avance et toucher de nouveaux marchés. »



Aller plus loin

Voici quelques services managés d’AWS utilisés par Fitizzy