« Comment développer un produit en un temps record et avec un budget limité ? » Toutes les startups en quête d’investisseurs se posent cette même question. Cela est logique, car les financeurs veulent juger la pertinence et le potentiel de votre offre avant de s’engager.

Pour tenter de convaincre, vous devez être en capacité de présenter votre produit et son intérêt technologique rapidement, à vos potentiels investisseurs. Mais également à vos utilisateurs, car leurs besoins évoluent très vite.

Fini le temps où les équipes travaillaient pendant des mois sur un projet afin de sortir une seule version aboutie. Désormais, le développement continu prime. Et ce, afin de coller au plus près des besoins des utilisateurs.

Pour lever des fonds, les startups ne doivent pas penser leur nouvelle solution dans sa globalité. Cela leur demanderait trop de temps. Elles doivent se concentrer d’abord sur les fonctions essentielles à développer pour leurs cibles, les « Killer features » disent les product owners. Les product owners sont des experts de la méthodologie agile. Ils font le lien entre la partie métier et la partie technique du projet.

Une fois développées, ces fonctionnalités sont mises sur le marché, testées, étoffées, améliorées pour aboutir au produit final.

graphique poc mvp production application

Cette méthode est aujourd’hui prisée lors du développement d’applications. Elle comprend deux temps :

  • La validation de votre concept avec un PoC, « Proof of Concept » (« preuve de concept ») et la création d’un prototype,
  • La réalisation d’un MVP, « Minimum Viable Product » (« produit minimum viable »).

Voyons ensemble ce qu’impliquent ces deux étapes.

1. Le PoC et le prototype pour valider votre idée

Lors de cette étape, votre idée est analysée. Premier objectif : la confronter au marché, aux concurrents et aux consommateurs afin de voir si elle répond à un besoin, à une opportunité. Est-elle réalisable d’un point de vue marketing, technique et économique ?

Une fois que le projet est estimé réalisable, il s’agit d’encadrer son développement : réalisation d’un cahier de charges précis, création de wireframes (maquette fonctionnelle du produit)  et de mock-up (représentation esthétique du produit).

Wireframe Adobe XD

Vient ensuite la création d’un prototype. Le prototype répond à la question : « À quoi ressemble notre solution ? ». Lors du développement d’applications, nous distinguons deux types de prototypage :

  • Le prototype horizontal : il présente uniquement l’interface de la solution. C’est une maquette statique. Seuls l’agencement général et les éléments de l’interface sont présentés : boutons, menus, champs de saisie, etc.
  • Le prototype vertical : il met en œuvre des fonctionnalités simplifiées afin que l’utilisateur puisse dérouler un scénario d’utilisation typique.

Le prototype permet :

  • de vérifier que le produit qui sera développé en MVP respectera les règles d’usage en termes d’UX (User Experience),
  • d’estimer le temps de développement.

2. Le MVP pour tester rapidement votre offre

Selon Eric Ries, auteur de l’ouvrage « The Lean Startup », « le MVP (« minimum viable product ») est la première version d’un nouveau produit qui permet à une équipe de collecter auprès de beta-utilisateurs le maximum d’enseignements validés, et ce avec un minimum d’efforts ».

Le MVP est un produit fonctionnel. C’est une première version de votre produit, contenant les fonctionnalités principales, celles qui répondent directement aux besoins de votre cible. Lors de cette étape, certaines fonctionnalités considérées comme non essentielles sont mises de côté. Elles seront développées plus tard, si le MVP est validé.

MVP minimum viable product application startup

Une fois le prototype réalisé, ce produit « simplifié » est donc développé afin d’être rapidement mis sur le marché. Objectif : soumettre votre projet à une audience cible. Vient ensuite la phase de recueil de commentaires auprès des utilisateurs pour le valider, puis l’étoffer en mode itératif.

Une fois que le MVP est validé avec l’ensemble de fonctionnalités minimales, de nouvelles fonctionnalités peuvent alors être ajoutées en utilisant la progression naturelle du PoC, du Prototype, puis du MVP.

  • Le PoC pour tester que ces fonctionnalités répondront bien à un besoin.
  • Le MVP pour confirmer nos idées auprès de notre cible.

La phase MVP peut avoir une durée indéfinie en raison de sa nature itérative. De manière générale, une startup doit compter environ une année pour obtenir une version stable et définitive de son produit.

PoC, Prototype, MVP : les avantages pour une start-up

Vous réduisez vos risques d’échecs : de manière générale, les dirigeants ont du mal à conceptualiser ce qu’ils veulent. Lors de projets menés via une méthode en cascade, ces derniers sont très souvent déçus, car le produit final n’est pas celui attendu. La déception est d’autant plus grande qu’il faut réinvestir de l’argent pour modifier à nouveau le produit. En créant un MVP, cela leur permet de visualiser le résultat et de l’affiner. Vous réduisez ainsi vos risques d’échec, car vous testez votre offre auprès de vos clients et vous vous assurez d’aller dans la bonne voie technologique.

Vous dépensez moins au lancement du projet : produire un MVP vous coûte bien moins cher que de créer un produit « one-shot ». Pourquoi ? Car, vous créez vos fonctionnalités au fur et mesure au lieu de créer un produit avec une multitude de fonctionnalités qui, une fois sur deux, ne seront pas utilisées par vos utilisateurs. De plus, cela a le mérite de forcer le dirigeant à synthétiser son offre, à définir quelle est sa vraie valeur ajoutée.

avantages poc prototype mvp application startup

Vous gagnerez du temps, car, dans cette démarche, il est plus rapide de produire un MVP que de développer en une seule fois un important logiciel avec pléthores de fonctionnalités.

Vous testez et ajustez votre offre auprès de vos utilisateurs. Vous êtes donc plus en alerte de nouveaux business models.

Vous avez un aperçu de vos dépenses : enfin, l’équipe de premaccess conseillent à ses clients de déployer leur offre sur AWS, car ce cloud provider permet de créer des applications facilement en microservices (serverless). Par ailleurs, il permet d’avoir un aperçu sur vos dépenses : vous payez uniquement les ressources que vous consommez. Ce qui peut s’avérer stratégique en début de projet. Il n’y a plus d’infrastructure complexe à payer même si elle ne sert pas.

PoC, Prototype, MVP : l’accompagnement de premaccess

premaccess conseille les startup lors de développements d’applications ou de solutions SaaS en serverless. Nous recommandons cette méthode « PoC / Prototype / MVP » à de nombreux clients. Mais avant de l’adopter avec une start-up, nous vérifions que :

  • cette démarche est en adéquation avec la réalité de votre entreprise et de votre projet,
  • le produit réalisé en MVP sera commercialisable,
  • le développement d’un MVP est financièrement possible pour l’entreprise.

Une fois que ces pré-requis seront validés, nous l’accompagnons pas à pas du PoC au MVP, et du MVP au produit final. Et nous mettons à sa disposition nos pattern librairies afin de gagner encore plus de temps lors du développement.

Vous souhaitez être conseillé sur le développement d’une application, d’une API… N’hésitez pas à contacter notre équipe.

Pour en savoir +

Qu’est-ce qu’un PoC (« Proof of Concept ») ?

Une preuve de concept (de l’anglais : proof of conceptPOC) a pour vocation de montrer la faisabilité d’un procédé ou d’une innovation.

Qu’est-ce qu’un MVP (« Minium viable product ») ?


Le produit minimum viable (ou MVP en anglais, « minimum viable product ») permet d’obtenir un maximum de retours client avec une version simplifiée du produit. Son intérêt : évaluer la viabilité du produit sur le marché.

Depuis 2019, My Tour Live vous propose des visites guidées à distance, comme si vous y étiez. Misant sur la vidéo 360° et sur l’interactivité, ce service est aujourd’hui prisé par des secteurs B2B comme l’immobilier, et B2C comme la culture. 

Un an après son lancement, My Tour Live a migré de Google Cloud vers AWS, épaulé par premaccess. Son objectif : s’ouvrir à un marché international encore plus large en touchant notamment la Chine (ce qui n’est pas le cas avec Google Cloud) et disposer d’une infrastructure cloud scalable grâce aux microservices d’AWS. Franck Adraï, son fondateur, revient sur la genèse du projet, et sur les atouts de cette innovation.

Comment est née My Tour Live ?

J’étais encore en expatriation en Polynésie française, à Tahiti, quand l’idée de My Tour Live est née. Nous étions en 2017. Je préparais mon retour en France métropolitaine. Et je me demandais comment accéder à la visite de lieu en étant éloigné. De manière inconsciente ou consciente, l’éloignement de Tahiti, la difficulté d’accès… m’ont poussé à réfléchir à ce projet.

À cette époque-là, Facebook Live et les lives streaming existaient déjà. Et nous parlions déjà de vidéos 360°. Les internautes pouvaient interagir lors des lives streaming, mais pas devant une vidéo 360°.

À mon retour en France, j’ai suivi un Executive MBA à Lausanne. Durant cette formation, j’ai affiné cette idée. Et j’ai créé My Tour Live en 2018.

En quoi My Tour Live est-il aujourd’hui un service novateur ?

Cette application est une combinaison de 5 facteurs : la caméra action, l’immersion de l’internaute/visiteur à 360°, l’accès à un lieu à distance, le live streaming et l’interaction avec le présentateur/guide. 

mytourlive video à la demande aws

Aujourd’hui, votre solution est prisée par des secteurs du B2B et du B2C.

En effet, côté B2B, nous touchons le secteur de l’immobilier. Avec le confinement, il a été impossible pour les agences immobilières d’organiser des visites de biens. Avec My Tour Live, plusieurs d’entre elles ont permis à leurs clients de visiter des logements à distance tout en répondant à leurs questions en temps réel. 

Côté tourisme, l’hôtellerie s’intéresse à notre application à des fins de promotion et d’aide à la vente. Quoi de mieux qu’une visite immersive pour présenter ses structures d’accueil à distance et pour donner envie ?

En B2C, la solution plaît aux entreprises culturelles comme les musées et les offices de tourisme qui y voient un moyen de promouvoir une destination (en donnant un avant-goût) et de développer leurs offres de visites guidées. Nous travaillons notamment avec le Musée Ziem, à Martigues, sur ce type de services. Lors de ces visites, les internautes sont ainsi immergés dans un lieu sans y être, se baladent avec un guide et entrent en interaction avec lui en temps réel, ce qui humanise l’expérience. 

Vous avez sollicité premaccess pour votre migration sur AWS.

La première version de notre application, lancée en 2019, avait été déployée sur Google Cloud. Après un an d’activité, nous avons décidé de basculer sur AWS pour deux raisons : 

1. Google Cloud n’est pas disponible partout dans le monde, et notamment en Chine. Nous souhaitions être présents dans cette région du monde. Ce que nous permet Amazon Web Service. 

2. Par ailleurs, en tant que cloud provider, AWS propose davantage de microservices sur sa plateforme. Ce qui est intéressant quand vous souhaitez scaler progressivement votre business.

Sur ce projet, premaccess nous a épaulé. Hébergée comme nous au sein de Marseille Innovation, son équipe est spécialisée dans les infrastructures cloud, avec une expertise particulière sur AWS, et a une réelle culture start-up. Ce sont de réels atouts pour notre projet.

Lors de votre passage de Google Cloud à AWS, avez-vous reconstruit l’ensemble de votre application ?

Nous n’avons pas refait le travail deux fois, bien sûr. En revanche, nous avons retravaillé des briques et des fonctionnalités en particulier. 

premaccess nous a apporté son expertise et nous a donné les clés d’entrée sur AWS. Sur cette partie, son équipe nous a accompagnés :

  • Lors de la migration depuis GCP avec Firebase et Brightcove vidéo vers les services AWS (Amplify AWS / AWS Media).
  • Lors du développement d’un module fonctionnel de gestion des invitations. La question que nous nous sommes posée : comment faire pour que les invités n’aient accès qu’à cette session et pas une autre ? Se posent ici des interrogations liées à la gestion des droits des utilisateurs. premaccess a géré cette partie en combinant 4 services AWS (Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS) et en générant des fonctions Lambda Trigger.
  • Lors de la migration du service Brightcove vers AWS Elemental pour le streaming vidéo. AWS Elemental MediaLive est un service de traitement vidéo en direct. Il permet de créer des flux vidéo de haute qualité en vue d’une diffusion sur les télévisions et les appareils multiécrans connectés à Internet (télés connectées, tablettes, smartphones…). Il permet la VOD et le Full Live.

Après deux ans d’existence, l’application My Tour Live a prouvé qu’elle répondait à un réel besoin sur le marché. Quels sont vos projets à venir ?

Nous cherchons toujours à améliorer notre plateforme, à ajouter des modules fonctionnels, à migrer d’autres modules externes vers des services existants sur AWS. En clair, nous envisageons d’utiliser de plus en plus les services de ce cloud provider. Objectifs : accroître notre offre et le business de la vidéo 360°.

Pour en savoir + sur My Tour Live :

Pour en savoir + sur les services AWS :

Quelles sont les solutions disponibles pour traiter du contenu vidéo à la demande sur AWS ?

Amazon Web Services (AWS) propose deux solutions multimédias permettant de fournir aux publics à travers le monde du contenu vidéo à la demande (VOD) à des coûts avantageux à l’aide du Cloud AWS : Video on Demand on AWS Foundation et Video on Demand on AWS.
Pour en savoir + : https://aws.amazon.com/fr/solutions/implementations/video-on-demand-on-aws/

AWS Elemental Media Live, service de traitement vidéo

Ce service encode vos flux vidéo en direct en temps réel, en utilisant une source vidéo en direct de grande taille et en la compressant en des versions plus petites en vue d’une diffusion à vos utilisateurs. Avec AWS Elemental MediaLive, vous pouvez facilement configurer des flux pour des événements en direct et des canaux fonctionnant 24 h sur 24 et 7 j sur 7, en profitant de fonctionnalités de diffusion avancées, d’une haute disponibilité et d’une tarification à l’utilisation.
Pour en savoir + : https://aws.amazon.com/fr/medialive/

Depuis le 30 novembre et jusqu’au 18 décembre, AWS re:Invent 2020 se déroule 100% en ligne. Entre les conférences, les leadership sessions, et les ateliers, il y a eu pléthores d’annonces et de nouveaux services présentés. Vous les avez ratés ?! Voici les essentiels !

Le programme re:invent 2020

https://www.premaccess.com/aws-reinvent-2020-les-rendez-vous-a-ne-pas-manquer-en-anglais-en-francais/

Pre-re:Invent 2020

AWS Network Firewall, un nouveau service de pare-feu réseau géré à haute disponibilité pour votre cloud privé virtuel (VPC) 

Il permet de déployer et de gérer facilement l’inspection, la prévention et la détection des intrusions. Il s’adapte automatiquement à votre trafic, garantissant une haute disponibilité sans investissement client supplémentaire dans l’infrastructure de sécurité.

Avec ce service, vous pouvez mettre en œuvre des règles personnalisées pour empêcher vos VPC d’accéder à des domaines non autorisés, pour bloquer des adresses IP ou pour identifier une activité malveillante. AWS Network Firewall rend l’activité du pare-feu visible en temps réel via les métriques CloudWatch.

https://amzn.to/3pF0igJ

Amazon S3 Storage Lens, solution d’analyse du stockage dans le cloud

Elle vous permet d’avoir une visibilité sur le stockage d’objet à l’échelle de votre organisation. 

Cet outil combine plusieurs jeux de données afin de vous aider à découvrir des anomalies, à identifier les économies de coûts à réaliser et à appliquer les meilleures pratiques en matière de protection des données. Via ses tableaux de bord, vous visualisez facilement les recommandations exploitables

https://amzn.to/3ffw3Z5

AWS Backup, sauvegarde entre comptes

À l’aide d’AWS Backup, vous pouvez sauvegarder sur plusieurs comptes AWS à la demande ou automatiquement dans le cadre d’un plan de sauvegarde planifié. La sauvegarde entre comptes est précieuse. 

Cette documentation vous explique pas à pas comment les réaliser avec AWSBackup (comment créer un coffre-fort de sauvegarde, attribuer une clé principale client…).

https://amzn.to/3kKUIpp

Network Load Balancer prend désormais en charge la version 6 du protocole Internet (IPv6)

Avec cette nouvelle fonctionnalité, vous pouvez prendre en charge les connexions clients IPv6 sans modifier votre application. Votre Network Load Balancer convertit de manière transparente le trafic IPv6 en trafic IPv4 avant de l’acheminer vers les cibles backend.

https://amzn.to/2Jfpyt8

La version 2 du moteur de requêtes d’Amazon Athena est désormais disponible 

Cette nouvelle version comporte plusieurs améliorations de performances et nouvelles fonctionnalités comme :

  • les requêtes fédérées, 
  • la prise en charge de l’évolution des schémas, 
  • les fonctions géospatiales supplémentaires, 
  • la prise en charge de la lecture des schémas imbriqués afin de réduire les coûts
  • et les améliorations de performances pour les opérations JOIN, ORDER BY et AGGREGATE.

https://amzn.to/3makJjp

Vous pouvez désormais utiliser un langage de requête compatible SQL pour interroger, insérer, mettre à jour et supprimer des données de table dans Amazon DynamoDB

PartiQL est un langage de requête compatible SQL. Il facilite l’interaction avec DynamoDB et l’exécution de requêtes dans AWS Management Console. 

https://amzn.to/3m7cV1W

Modules pour AWS CloudFormation

Pour simplifier votre gestion des ressources à travers AWS CloudFormation, vous pouvez désormais utiliser les modules. 

Les modules sont des blocs de construction réutilisables. Ils simplifient l’utilisation des ressources spécifiques dont vous avez besoin tout en maintenant les configurations de ressources alignées sur les meilleures pratiques organisationnelles. 

https://amzn.to/3m8B349

CodeSigning

Avec ce service, vous pouvez désormais vous assurer que seul du code approuvé et vérifié est déployé dans vos fonctions AWSLambda.

La signature de code est une technique utilisée pour confirmer que le code provient d’un éditeur de confiance.

Code Signing aide les administrateurs à faire en sorte que seuls les packages de code signé d’éditeurs de confiance s’exécutent dans leurs fonctions Lambda et que le code n’a pas été modifié ou falsifié depuis la signature.

https://amzn.to/3lgP6DT

Re:invent 2020 – Semaine 1 – 30 nov. – 4 déc.

Instance Amazon EC2 pour macOS

Nous pouvons désormais utiliser des instances Mac Amazon EC2 pour créer et tester des applications macOS, iOS, ipadOS, tvOS et watchOS 

Ces instances disposent d’un processeur Intel Core i7 (Coffee Lake) à 6 cœurs de 8e génération.

Du côté du réseau, elles s’exécutent dans un Virtual Private Cloud (VPC).

https://amzn.to/3lq0Q72

AWS Lambda prend désormais en charge jusqu’à 10 Go de mémoire

Nous pouvons désormais allouer jusqu’à 10 Go de mémoire à une fonction Lambda. 

C’une augmentation de plus de 3 fois par rapport aux limites précédentes. 

Lambda alloue le processeur et les autres ressources de manière linéaire proportionnellement à la quantité de mémoire configurée. Cela signifie que nous pouvons désormais avoir accès à jusqu’à 6 processeurs virtuels dans chaque environnement d’exécution. 

https://amzn.to/37vOuFc

AWS Lambda fait passer la granularité de la facturation de la durée de 100 ms à 1 ms

Une bonne nouvelle pour notre portefeuille ! AWS Lambda réduit la granularité de facturation pour la durée de la fonction Lambda de 100 ms à 1 ms.  Cela va baisser le prix de la plupart des fonctions Lambda, plus encore des fonctions de courte durée. 
Ainsi, leur durée de calcul va être facturée par incréments de 1 ms au lieu d’être arrondie à l’incrément de 100 ms le plus proche par appel. 

https://amzn.to/3mzCN6N

Présentation de la prochaine version d’Amazon Aurora Serverless en avant-première

Cette nouvelle version offre la possibilité de faire évoluer les charges de travail de base de données vers des centaines de milliers de transactions en une fraction de seconde. 

https://amzn.to/33SGhKD

AWS Lambda prend désormais en charge les images de conteneur en tant que format d’emballage

Avec le service Container Image Support, nous pouvons désormais déployer des fonctions AWS Lambda sous la forme d’image de conteneur d’une capacité maximale de 10 Go.

https://amzn.to/3qvJNnV

Présentation d’Amazon QuickSight Q: posez des questions sur vos données et obtenez des réponses en quelques secondes

Jusqu’à présent, QuickSight permettait aux entreprises de créer et analyser des visualisations de leurs données client en quelques minutes. 

La nouvelle fonctionnalité de ce service « Amazon QuickSight Q », basée sur le machine learning, utilise le traitement du langage naturel pour répondre instantanément aux questions de votre entreprise. Elle est optimisée pour comprendre le langage commercial que vous utilisez quotidiennement dans le cadre de votre travail. 

Ainsi, les utilisateurs peuvent saisir simplement des questions comme « Quel est notre taux de croissance d’une année sur l’autre ?» et obtenir une réponse instantanée sous forme de visualisation. 

https://amzn.to/3lzm2HL

Amazon Monitron, un service simple et économique permettant une maintenance prédictive

Ce nouveau service propose un système de #surveillance des machines de bout en bout pour détecter les anomalies et comportements anormaux. 

Basé sur le machine learning, il peut notamment prédire quand les équipements industriels nécessiteront une maintenance 

https://amzn.to/39ALPNc

Amazon CodeGuru Reviewer annonce des détecteurs de sécurité pour aider à améliorer la sécurité du code

Amazon CodeGuru Reviewer nous aide à identifier les risques de sécurité en recherchant les problèmes critiques, et en soumettant des recommandations pour les corriger.

C’est une fonctionnalité supplémentaire à CodeGuru. Rappelons-le : AmazonCodeGuru est un outil de développement basé sur le machine learning qui fournit des recommandations intelligentes pour améliorer la qualité du code et identifier les lignes de code les plus coûteuses des #applications. 

https://amzn.to/3lEwUE1

Amazon EKS prend désormais en charge la création et la gestion d’instances Spot Amazon Elastic Compute Cloud (Amazon EC2)

Cela vous permet de profiter des économies considérables qu’offrent les instances Spot pour les charges de travail s’exécutant dans votre cluster Kubernetes.

https://amzn.to/3g2y5fv

Présentation de nouveaux volumes à usage général Amazon EBS, GP3

Amazon Elastic Block Store (EBS) est un service de stockage hautes performances et facile à utiliser, conçu pour être utilisé avec les instances Amazon EC2.

Sur ce service, nous pouvons désormais utiliser un nouveau type de volume SSD EBS, gp3. 

gp3 est idéal pour les applications qui nécessitent des performances élevées à faible coût telles que MySQL, Cassandra, les bureaux virtuels…

https://amzn.to/36z2lLI

AWS Amplify annonce une nouvelle interface utilisateur d’administration

Découvrez ses nouvelles fonctionnalités https://amzn.to/3lBSh92

Re:invent 2020 – Semaine 2 – 7 au 11 déc.

Présentation d’Amazon SageMaker Pipelines, premier service CI / CD spécialement conçu pour l’apprentissage automatique

Avis aux développeurs et aux scientifiques spécialistes de machinelearning : AWS apporte une brique supplémentaire à Amazon SageMaker avec Amazon SageMaker Pipelines.

SageMaker Pipelines est le premier service CI/CD spécialement conçu pour l’apprentissage automatique. Il permet automatiser et d’orchestrer des flux de travail #ML.

Il propose, par ailleurs (et cela n’est pas négligeable !), les meilleures pratiques DevOps appliquées à l’apprentissage automatique MLOps. 

https://amzn.to/373uT09

Présentation d’Amazon HealthLake

Avec Amazon HealthLake, AWS fait un pas de + dans le secteur de la santé. Son objectif : aider les professionnels à utiliser efficacement l’ensemble des données pour prendre les meilleures décisions en matière de soin.

Les médecins, l’assurance maladie, les pharmacies… collectent des quantités d’infos sur les patients (antécédents, observations cliniques, diagnostics, médicaments). Actuellement, ces données sont réparties sur une multitude de systèmes (dossiers médicaux électroniques, systèmes de laboratoire, etc.) et existent dans des dizaines de formats incompatibles. Pas simple donc.


HealthLake supprime cette lourde tâche d’organisation des données sur chaque patient. Il agrège ces infos à partir de différents silos et formats dans un lac de données AWS centralisé. Il utilise des modèles de machine learning pour normaliser ces données et extraire automatiquement des informations médicales significatives. De quoi mieux diagnostiquer.

https://amzn.to/33YLkco

Amazon Kendra ajoute un connecteur #GoogleDrive

Le  service de recherche intelligente basé sur l’apprentissage automatique Amazon Kendra ajoute désormais un connecteur #GoogleDrive.

Avec AWS, il n’y a pas de frontière. Vous pouvez aller chercher vos données n’importe où ! Objectif : rester ouvert !

https://amzn.to/2VZkDjh

Présentation d’Amazon SageMaker Data Wrangler

La plupart des modèles #ML demandent beaucoup de temps pour agréger des données. Et bien, ce temps est bien révolu grâce à un nouveau service que nous avons découvert la semaine dernière.

Amazon SageMaker Data Wrangler réduit ce temps nécessaire de plusieurs semaines à quelques minutes. Il simplifie le processus de préparation des données et d’ingénierie des fonctionnalités.

À l’aide de son outil de sélection, nous pouvons choisir les datas que l’on souhaite à partir de diverses sources #AmazonS3, #Athena, #Redshift, #LakeFormation… et les importer en un seul clic. 

https://amzn.to/3m2lB91

Zoom sur la conformité avec AWS Audit Manager

Le nouveau service AWS Audit Manager nous aide à auditer en permanence notre utilisation d’#AWS pour savoir si nos systèmes sont conformes aux réglementations et aux normes : #rgpd, #securité, #paiementenligne.

https://amzn.to/3gvB28J

AWS Security Hub s’intègre à AWS Audit Manager

Security Hub nous donne une vue complète de nos alertes de sécurité. Il regroupe nos alertes ou résultats de sécurité provenant de plusieurs services AWS, comme #GuardDuty, #Inspector et #Macie…

https://amzn.to/33Xqc6a

Présentation d’Amazon Redshift ML

Vous pouvez désormais créer, entraîner et déployer des modèles de machine learning dans Amazon Redshift à l’aide de SQL. Cela est possible avec Amazon Redshift ML.

Ce nouveau service a de nombreux avantages :

Il vous permet de créer et de former des modèles ML avec de simples commandes SQL sans avoir à apprendre des outils externes.

Il offre la flexibilité d’utiliser la sélection automatique d’algorithmes.

Il permet aux experts en #ML tels que les #datascientists de sélectionner des algorithmes tels que #XGBoost et de spécifier des #hyperparamètres et des #préprocesseurs.

https://amzn.to/2K4IoDT

3 nouvelles fonctionnalités pour CodeGuru

Prise en charge de Python > Vous pouvez désormais utiliser CodeGuru pour améliorer les applications écrites en Python

Détecteurs de sécurité pour CodeGuru Reviewer > Pour identifier les vulnérabilités de sécurité et vérifier les meilleures pratiques de sécurité dans votre code Java

Profilage de la mémoire pour CodeGuru Profiler > Pour optimiser la façon dont votre application utilise la mémoire.

https://amzn.to/37Rz0vr

Re:invent 2020 – Semaine 3 – 14 au 18 déc.

AWS CloudShell

AWS CloudShell permet d’accéder en ligne de commande aux ressources et outils #AWS directement à partir d’un navigateur. Avec CloudShell, nous pouvons exécuter rapidement des scripts avec l’AWS Command Line Interface (AWS CLI), expérimenter les API de service AWS à l’aide des kits SDK AWS…

https://amzn.to/2KdzfZZ

Amazon Managed Service for Grafana

Ce service facilite la création d’espaces de travail Grafana à la demande, pour visualiser et analyser votre données provenant de sources multiples. Grafana est l’une des technologies open source les plus populaires utilisées pour créer des tableaux de bord d’observabilité pour des applications. 

https://amzn.to/3ns4hvJ

Plus d’infos sur re:Invent, rendez-vous :

Qu’est-ce que AWS Re:invent ?

AWS re:Invent est un évènement organisé par Amazon Web Services (AWS) pour la communauté mondiale du cloud computing. L’événement comprend des annonces, des lancements, des sessions et plus encore.

Quand se tient AWS re:Invent 2020 ?

AWS re:Invent 2020 est présenté sur trois semaines, du 30 novembre au 18 décembre 2020. Découvrez l’agenda : https://reinvent.awsevents.com/agenda/

Nous pouvons le dire : cette année, la conférence des partenaires d’AWS se réinvente. Pendant trois semaines, du 30 novembre au 18 décembre, AWS re:Invent 2020 vous propose d’assister à des conférences et ateliers tranquillement depuis votre bureau ou canapé. L’ensemble de ces rendez-vous sera disponible en ligne, entièrement gratuitement.

Voici les keynotes attendues :

  • Mercredi 2/12 – 9h (CET / GMT +1) – Keynote générale, par Andy Jassy, CEO d’AWS.
  • Jeudi 3/12 – 9h (CET / GMT +1) – Keynote partenaires, par Doug Yeum, head of Worldwide Channels and Alliances; Sandy Carter, VP Global Public Sector Partners & Programs; et Dave McCann, VP AWS Migration, Marketplace, & Control Services.
  • Mercredi 9/12 – 9h (CET / GMT +1) – Keynote Apprentissage Automatique et Intelligence Artificielle, par Swami Sivasubramanian, VP Amazon Machine Learning.
  • Vendredi 11/12 – 9h (CET / GMT +1) – Keynote Infrastructure, par Peter DeSantis, SVP Global Infrastructure & Customer Support.
  • Mercredi 16/12 – 9h (CET / GMT +1) – Keynote Architecture, par Dr. Werner Vogels, VP & CTO AWS.
reinvent aws keynote partners

Les Leadership Sessions

19 Leadership Sessions sont également programmées. Ces sessions sont l’occasion d’entendre directement les leaders AWS sur les dernières avancées technologiques d’AWS.

https://reinvent.awsevents.com/leadership-sessions/

reinvent leadership sessions

Les GPS Breakout Sessions

15 sessions en petits groupes, d’une durée de 30 minutes, sont proposées afin que vous puissiez poser vos questions à un panel d’experts. Pensez à vous y inscrire !

  • Naviguez avec succès dans le parcours du partenaire conseil (GPS201)
  • Offrez un lieu de travail numérique sécurisé à vos clients (GPS 202)
  • Modernisation de la base de données avec AWS Consulting Partners (GPS203)
  • Accélérez les migrations avec le programme de migration de la charge de travail ISV (GPS204)
  • Fournir des services professionnels dans un monde COVID-19 (GPS205)
  • Au-delà de l’infrastructure pour stimuler votre activité SAP (GPS206)
  • Comment vendre sur AWS Marketplace (GPS207)
  • Perspectives et inspiration de ceux qui sont sur le chemin de la transformation (GPS208)
  • Modernisez les bases de données et les applications avec le programme Database Freedom pour les éditeurs de logiciels indépendants (GPS209)
  • Co-vente pour les intégrateurs de systèmes (GPS210)
  • Les partenaires AWS stimulent l’innovation avec COVID-19 (GPS211)
  • Co-vente pour les éditeurs de logiciels indépendants (GPS212)
  • Combler le déficit de compétences cloud en créant une main-d’œuvre diversifiée et dynamique (GPS213)
  • Passer au «all-in» – Exploiter tout le potentiel du cloud (GPS214)
  • Comment organiser virtuellement des ateliers clients et des webinaires efficaces (GSP302)

Du contenu en français

Enfin, dans son dernier article de blog, l’expert AWS Sébastien Stormacq nous indique que plusieurs sessions se tiendront en français. En voici quelques-unes :

  • Une application résiliente, dans un monde partiellement dégradé, par Pascal Martin, Bedrock / M6
  • Construire des workflows complexes de calcul avec AWS Step Functions et AWS Fargate, par Roberto Migli, AWS
  • DevSecOps, Inclure la sécurité dans un flux CI/CD, par Dany Poudrier, AWS & Laurent Jalbert-Simard , pokia.io
  • Architecturer sa gouvernance sur AWS : de Zero à Hero, par Walid Benabderrahmane, AWS & Ludovic Tressol, Thales
  • Faire plus avec moins de code en Serverless, par Jérôme Van Der Linden, AWS

Pour en savoir + à ce sujet, rendez-vous sur cet article de blog : https://aws.amazon.com/fr/blogs/france/du-contenu-en-francais-pendant-reinvent-2020/

Plus d’infos sur re:Invent, rendez-vous :

Bon re:Invent à tous !

Qu’est-ce que AWS Re:invent ?

AWS re:Invent est un évènement organisé par Amazon Web Services (AWS) pour la communauté mondiale du cloud computing. L’événement comprend des annonces, des lancements, des sessions et plus encore.

Quand se tient AWS re:Invent 2020 ?

AWS re:Invent 2020 est présenté sur trois semaines, du 30 novembre au 18 décembre 2020. Découvrez l’agenda : https://reinvent.awsevents.com/agenda/

Faut-il s’inscrire pour accéder à cet évènement ?

Oui. En vous inscrivant à re:Invent, vous aurez accès à des keynotes, des sessions de leadership et plus de 500 sessions en petits groupes, ainsi que la possibilité de vous connecter avec des experts AWS, des partenaires et plus encore.

Basculer l’ensemble de l’activité sur le cloud ? Oui, mais pourquoi ? Comme beaucoup d’entreprises, premaccess s’est posée cette question. Créée en 2007, elle est aujourd’hui experte en développement d’applications Platform/Serverless/SaaS et en services managés cloud – notamment avec sa solution d’orchestration d’infrastructure BAM (Build Automation  Machine). Mais, il n’en a pas toujours été ainsi. 

Spécialisée initialement dans l’hébergement premium de données sensibles (bancaire, santé, trading, ads…), premaccess décide de migrer l’ensemble de son activité sur le Nuage en 2015. L’innovation technologique fait partie de son ADN. Difficile pour elle de fermer les yeux sur l’arrivée des cloud providers sur le marché.

Entre la mise en place d’une stratégie cloud, la réflexion sur le business model et la formation des équipes à ces nouvelles technologies, l’ex-hébergeur a mis près de 5 ans pour être 100% cloud. L’entreprise fermera son tout dernier datacenter en décembre prochain. 

À la différence des prestataires « cloud natives », premaccess a vécu l’itinéraire que suit toute entreprise qui réalise la bascule « On premise » vers le nuage. Une expérience que ses équipes ont transformée en force. Ce savoir-faire est aujourd’hui utile pour accompagner au mieux leurs nouveaux clients dans cette aventure. 

Falco Schmutz, CEO de premaccess, revient sur cette migration sur le cloud d’AWS. D’après lui, pour tout membre d’une DSI, « participer à la mise en place une architecture cloud demande de prendre du recul par rapport à son propre métier, voire d’en renaître. »

Falco Schmutz

Quels services proposiez-vous au sein de premaccess avant votre passage sur le cloud ?

« Avant notre bascule sur le cloud, nous étions spécialisés dans l’hébergement premium de données sensibles. Nous développions, pour nos clients, des infrastructures sur-mesure que nous hébergions sur nos datacenters, et nous leur proposions des services techniques comme la haute-disponibilité multisites, les services managés… Nous avons effectué ce métier pendant près de 14 ans. »

Migrer vers le cloud : cela était-il évident pour vous dès l’arrivée des cloud providers sur le marché français ?

« Pas forcément ! Début 2016, un membre de premaccess m’informe de l’arrivée d’AWS en France. Il m’interroge : « Souhaite-t-on y aller ? ». À l’époque, j’étais plutôt réticent. Certainement, car j’étais à l’aise dans mon activité, dans l’offre proposée à mes clients…

Mais, j’ai très vite changé d’avis. Deux mois après, je participe à une formation AWS. Formation de trois jours au cours de laquelle je rencontre les DSI de plusieurs grands groupes français. Ces trois jours d’initiation aux outils AWS ont été révélateurs. (Merci à Boris Lecoeur et Arnaud Lemperreur de m’avoir convaincu 🙂 ) J’ai pris conscience de la force d’innovation de ce cloud provider, de sa capacité à réinventer notre métier. J’ai compris qu’il incarnait l’avenir. Et j’ai aussi ouvert les yeux sur notre métier d’hébergeur : si nous continuions comme cela, nous risquions de prendre du retard face à la concurrence, et d’être dans l’incapacité d’innover.

Chez premaccess, nous sommes des mordus de technologie et d’innovation. Fermer les yeux sur l’arrivée des cloud providers en France, c’était aller à l’encontre de notre vision et de la promesse que nous faisons à nos clients : celle de les accompagner vers ce qui est le plus adapté et le mieux sur le marché. Se lancer sur le cloud, c’était suivre nos convictions ! »

Migrer vers le cloud formation equipe

Comment avez-vous procédé lors de votre migration vers le cloud ? Quelles ont été les différentes étapes franchies pour mener à bien ce projet ?

« Notre 1ère réflexion s’est portée sur notre stratégie : part-on sur une stratégie cloud ou bien multi-cloud ? Très vite, nous avons choisi d’adopter une stratégie cloud 100% AWS, car nous aimons l’ADN de ce fournisseur. AWS est toujours à la recherche de la nouvelle innovation pertinente. 

Notre 2e réflexion s’est portée sur notre business model car basculer sur le cloud nous a demandé de le réinventer. Dans ce virage numérique, nous avons beaucoup appris. Nous transmettons ce savoir désormais à nos clients. Sur le cloud, vous êtes dans « l’utilisation à l’usage ». Ce qui diffère avec la logique d’un choix d’achat de logiciel… Ainsi, nous sommes désormais en capacité de répondre aux différentes questions que se posent nos clients sur la gestion financière de leur infrastructure cloud : « Comment facture-t-on sur le cloud », « comment puis-je faire pour que le business de mon entreprise utilise ces technologies à leur juste mesure ? »… Nous avons développé de fortes compétences en FinOps.

Enfin, notre 3e réflexion a concerné la formation des équipes. Créer des architectures cloud demande de l’expertise. Il a fallu que nous formions et modernisions nos équipes. Nous avons beaucoup investi de temps dans la formation, dans des bootcamps, et dans les certifications. Clairement, migrer votre infrastructure sur le cloud implique un changement de paradigme : vous passez du métier d’ingénieur système réseau à devOps. Ce qui n’est pas à la portée de tous. »

Quels sont, d’après vous, les bénéfices du cloud pour une entreprise ? 

« J’en vois 3 majeurs :

Innovation de vos offres : Grâce au cloud, vous accédez facilement à la technologie. La myriade de microservices disponibles sur le cloud d’AWS vous permet de tester de nouvelles offres plus rapidement avant de les mettre sur le marché. Il vous permet de réduire vos cycles d’innovation. Cela est un bénéfice primordial à l’heure de la transformation digitale des entreprises.

Automatisation : vous pouvez piloter plus simplement vos infrastructures. De quoi faire gagner du temps à vos équipes techniques (encore plus avec une solution comme BAM qui nous avons développé pour faire cette migration et la rendre accessible à nos clients).

Sécurité : les cloud providers disposent d’une liste de conformités (compliances) incroyables. Quand on sait le temps que cela implique en termes de régulation, de vérification, de sécurité… Il est impossible de tenter de les concurrencer dans ce domaine. »

Quels conseils souhaiteriez-vous donner aux entreprises qui envisagent de migrer sur le cloud ?

« Mon premier conseil concerne l’investissement humain. Ne sous-estimez pas le temps que cela demande de se former, de changer les mentalités, d’engager les équipes pour qu’elles s’approprient ce nouveau projet. N’hésitez pas à trouver des ambassadeurs, acteurs de ce changement, au sein de vos équipes.

Deuxième conseil : Ne sous-estimez pas l’apport des personnes qui ont migré leur infrastructure sur le cloud avant vous. Elles savent de quoi vous parlez, elles comprennent parfaitement les difficultés que vous rencontrez (techniques et humaines).

Enfin, mon troisième conseil portera sur la partie financière : en migrant sur le cloud, vous obtiendrez un gain à long terme. Il ne faut pas s’attendre à ce que cela ait un impact sur vos finances tout de suite. Ce type de projet demande beaucoup de changements. Pendant un temps, par exemple, vous pouvez vous retrouver avec des doublons d’infrastructures sur un hébergement classique et sur le cloud. Par ailleurs, les équipes doivent être prêtes, formées pour porter de nouveaux projets avec ces nouveaux outils techniques. En fonction de la taille de votre structure, vous aurez un gain financier significatif au bout de 3 à 6 ans. »

Maintenant « Advanced consulting partner AWS », premaccess accompagne de nombreuses entreprises dans leur projet de migration. Son équipe marque la différence par rapport aux concurrents « 100% cloud natives » : 

  • Elle connaît le métier d’AWS sur le bout des doigts.
  • Elle comprend les enjeux d’un tel projet pour une entreprise, pour l’avoir elle-même expérimenté.

Aussi, si vous souhaitez migrer toute ou une partie de votre activité sur le cloud, n’hésitez pas à vous entourer d’experts dans ce domaine. 

Pour en savoir + à ce sujet, découvrez plusieurs de nos articles :

Migrer vers le cloud : les principales étapes

#1 Visualisez le panorama
#2 Entrez dans un nouveau monde
#3 Envisagez la phase de Build
#4 Garantissez la continuité du business
#5 Maîtrisez sa phase de Run
#6 Faites confiance aux experts DevOps / Developpeurs
#7 Choisissez la région la plus proches de vos besoins

Pour en savoir https://www.premaccess.com/migration-aws/

Depuis son application en mai 2018, le Règlement Général sur la Protection des Données (RGPD, dit GDPR en anglais « General Data Protection Regulation ») impose davantage de rigueur et de transparence dans le traitement des données personnelles sur les plateformes numériques (sites, applications, etc.). 

Quelle que soit votre activité (grande entreprise, organisation publique…), vous êtes amené à traiter des données personnelles via vos systèmes d’information. Mais employez-vous correctement les “best practices” en matière de sécurité et de conservation des datas ? 

Si vous avez déployé votre infrastructure sur un cloud public (AWS, Google Cloud, Azure, etc.), le principe de la responsabilité partagée s’applique dans la mise en oeuvre de cette conformité. En clair : le cloud provider est responsable de la sécurité du cloud. En tant qu’utilisateur, vous êtes responsable de votre sécurité et de votre conformité sur cet espace.

RGPD données personnelles AWS Responsabilité partagée cloud

Bien conscients de la difficulté que cela représente, les cloud providers ont créé plusieurs outils pour vous permettre d’être en règle. C’est le cas d’AWS. 

Qui doit appliquer le RGPD ? Qu’entend-on par données personnelles ? Comment les chiffrer ? Comment mettre en place une surveillance et un contrôle d’accès ? Découvrez, dans cet article, l’ensemble des informations pour y voir + clair sur ce vaste sujet, ainsi que les services disponibles chez AWS pour être « RGPD friendly ». 

Qui est concerné par le RGPD ? Qu’est-ce qu’une donnée personnelle ?

Avant toute chose, redéfinissons ce règlement et ce qu’est une donnée personnelle. 

Le Règlement Général sur la Protection des Données

Il encadre le traitement des données personnelles sur le territoire de l’Union européenne. Il renforce le contrôle par les citoyens de l’utilisation qui peut être faite des données les concernant. Il harmonise ce sujet à l’échelle de l’Europe. 

Toute organisation, publique et privée, qui traite des données personnelles pour son compte ou non, est concernée par ce texte dès lors  :

  • qu’elle est établie sur le territoire de l’Union européenne,
  • et/ou que son activité cible directement des résidents européens.
RGPD données personnelles Consentement données personnelles formulaire

La donnée personnelle

C’est une information à partir de laquelle un individu peut être identifié ou identifiable.

Une personne peut être identifiée :

  • directement (exemple : nom, prénom)
  • ou indirectement (identifiant, n° client, numéro de téléphone…).

L’identification peut être réalisée :

  • à partir d’une seule donnée (numéro de sécurité sociale…)  
  • à partir du croisement d’un ensemble de données.

La protection de ces données repose sur 5 grands principes applicables sur tout support, qu’il soit numérique ou non :

  • Le principe de finalité : la collecte a un but bien précis.
  • Le principe de proportionnalité et de pertinence : nous ne récoltons que les données dont nous avons besoin.
  • Le principe d’une durée de conservation limitée : il n’est pas possible de conserver des informations sur des personnes physiques pour une durée indéfinie. Une durée de conservation précise doit être fixée, en fonction du type d’information enregistrée et de la finalité du fichier.
  • Le principe de sécurité et de confidentialité : vous devez garantir la sécurité et la confidentialité des informations que vous détenez. Vous devez en particulier veiller à ce que seules les personnes autorisées aient accès à ces informations.
  • Les droits des personnes et le principe de consentement : les personnes concernées doivent être informées de la manière dont leurs données sont traitées et elles doivent pouvoir donner leur consentement.

RGPD & données personnelles : les droits des utilisateurs et vos obligations  

Nous pouvons vous en citer 4 :

Droit à la portabilité des données :

Les individus ont le droit de copier toutes les données personnelles que vous avez à leur sujet. Ces données doivent être fournies de manière à faciliter leur réutilisation.

Droit à l’oubli :

Cela donne aux individus le droit de réclamer l’effacement de certaines données personnelles, de façon à les rendre inaccessibles à des tiers.

Protection des données dès la conception :

Dès la phase initiale de conception d’un service, vous devez respecter les règles, recommandations et consignes en rapport avec la protection des données.

Notification en cas de fuite de données :

En cas de fuite de données, vous devez notifier l’autorité de supervision concernée dans les 72 heures. S’il y a un risque élevé d’atteinte aux droits et libertés des individus, vous devez également les informer.

AWS centre reglement general protection données rgpd

Le cloud AWS respecte-t-il le RGPD ?

OUI

Lors de l’entrée en vigueur de ce règlement européen, en 2018, AWS a réalisé un audit de conformité au RGPD certifiant que l’ensemble de ses services et fonctionnalités respectent bien les normes les plus élevées en matière de confidentialité et de protection des données personnelles. 

Par ailleurs, ce cloud provider dispose de certifications : ISO 27017 dédiée à la sécurité du cloud computing, et ISO 27018 dédiée à la protection des données personnelles dans le Cloud.

Quels sont les services proposés par AWS pour aider à vous  mettre en conformité avec le RGPD ?

En fonction de vos besoins, voici plusieurs services et fonctionnalités mises à votre disposition par AWS pour respecter les exigences du texte européen.

Chiffrez vos données 

RGPD Chiffrement des données personnelles outils AWS
  • Chiffrement de vos données au repos avec AES256 (EBS/S3/Glacier/RDS)
  • Gestion centralisée des clés via Key Management Service (par région AWS)
  • Tunnels IPsec vers AWS avec les passerelles VPN
  • Modules HSM dédiés dans le cloud avec AWS CloudHSM

Contrôle d’accès : restreignez l’accès aux ressources AWS aux administrateurs, utilisateurs et applications autorisés

Contrôle d'accès : restreignez l'accès aux ressources AWS aux administrateurs, utilisateurs et applications autorisés
  • Authentification multi-facteurs (Multi-Factor-Authentication, MFA)
  • Accès granulaire fin aux objets dans des compartiments Amazon S3 / Amazon SQS/ Amazon SNS et d’autres services
  • Authentification par requête d’API
  • Restrictions géographiques
  • Jetons d’accès temporaires via AWS Security Token Service

Surveillance et fichiers journaux : obtenez une présentation des activités concernant vos ressources AWS

Surveillance et fichiers journaux : obtenez une présentation des activités concernant vos ressources AWS
  • Gestion et configuration des ressources avec AWS Config
  • Audits de conformité et analyses de sécurité avec AWS CloudTrail
  • Identification des difficultés de configuration avec AWS Trusted Advisor
  • Fichiers journaux granulaires fins des accès aux objets Amazon S3

  • Informations détaillées sur les flux du réseau via Amazon VPC-FlowLogs
  • Vérifications et actions de configuration reposant sur des règles avec AWS Config Rules
  • Filtrage et surveillance des accès HTTP aux applications avec les fonctions WAF d’AWS CloudFront

AWS propose, par ailleurs, 4 services particulièrement intéressants pour vous accompagner dans cet objectif « RGPD friendly » :

  • Amazon GuardDuty est un service géré de détection des menaces, qui surveille en continu les comportements malveillants ou non autorisés.
  • Amazon Macie utilise le machine learning pour surveiller et protéger les données stockées dans Amazon S3.
  • Amazon Inspector est un service d’évaluation de la sécurité automatisée. Il permet de renforcer la sécurité et la conformité de vos applications déployées sur AWS.
  • AWS Config Rules est un service de monitoring. Il vérifie la conformité des ressources cloud aux règles de sécurité.

Enfin, si vous souhaitez aller encore plus loin sur ce sujet, AWS a publié un livre blanc intitulé « Navigating GDPR Compliance on AWS ». Cet ouvrage explique comment adapter les exigences du RGPD à chaque service AWS, avec un focus sur ceux concernant le monitoring, l’accès aux données, et la gestion des clefs.

En tant que décideurs, chef de projet ou DSI, si vous souhaitez savoir si vous être en règle avec le RGPD ou bien vous mettre en conformité, n’hésitez pas à contacter l’équipe de premaccess. Experte AWS, elle vous conseillera et vous proposera un accompagnement sur-mesure adapté à vos besoins.

Pour aller + loin :

FAQ à propos de la conformité AWS au RGPD

Tous les services d’AWS sont-ils conformes au RGPD ?

OUI. Amazon Web Services certifie que l’ensemble de ses services et fonctionnalités disponibles respectent les normes les plus élevées en matière de confidentialité et de protection des données personnelles imposées par le RGPD. AWS souhaitait se mettre en conformité avec le Règlement deux mois avant son entrée en vigueur, le 25 mai 2018, afin d’offrir, tant à ses clients qu’à ses partenaires, un environnement dans lequel ils peuvent développer leurs propres produits, services et solutions conformes au RGPD.

Quels sont les conseils d’AWS pour réussir sa conformité au RGPD

1. Impliquer les dirigeants
2. Centraliser les efforts de mise en conformité au RGPD
3. Travailler en direct avec l’équipe juridique et  direction technique
4. Penser avant tout à protéger les personnes
Pour en savoir +

Depuis plusieurs années, vous avez pu utiliser la fonctionnalité de gestion du cycle de vie de AWS S3 pour contrôler la classe de stockage et la durée de vie de vos objets. 

Depuis mars dernier, une fonctionnalité a été ajoutée à ce service : le téléchargement incomplet d’objet en plusieurs parties. Ce chargement partitionné vous permet de télécharger un objet unique constitué d’un ensemble de parties. Une fois que toutes les parties de cet objet sont chargées, Amazon S3 présente les données comme un seul objet. 

Grâce à cette fonction, vous pouvez gérer des téléchargements en parallèle, mettre en pause et reprendre le chargement d’un objet, mais aussi commencer les chargements avant de connaître la taille totale de l’objet.

Qu’est-ce que le téléchargement incomplet d’objet en plusieurs parties ?

La fonction de téléchargement partitionné d’AWS S3 accélère le transfert d’objets volumineux en vous permettant de les diviser en plusieurs parties logiques qui peuvent être téléchargées en parallèle. 

Si vous lancez un téléchargement en plusieurs parties, mais que vous ne le terminez pas, le téléchargement en cours va occuper de l’espace de stockage et entraînera des frais de stockage. 

Cependant, ces téléchargements ne sont pas visibles lorsque vous répertoriez le contenu d’un bucket. Ils doivent impérativement être supprimés. S’ils ne sont pas supprimés, l’espace de stockage consommé par ces chargements continuera à être facturé.

Comment savoir si un bucket contient des téléchargements partitionnés ?

Voici un petit script qui peut vous aider à trouver quel bucket a des téléchargements en plusieurs parties :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - Téléchargements partitionnés

Ce script donnera une réponse comme celle-ci :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - Téléchargements partitionnés

« True » signifie que ce compartiment a des téléchargements en plusieurs parties. « False » signifie qu’il n’en contient pas.

Comment puis-je obtenir une liste de téléchargements partitionnés ?

Voici un autre script qui vous aidera à obtenir une liste de téléchargements partitionnés :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - listes Téléchargements partitionnés

Comment éviter le coût inutile des téléchargements incomplets en plusieurs parties ?

Pour cela, il est possible de configurer un cycle de vie dédié à ces téléchargements. Une fois le temps imparti achevé, ils seront automatiquement supprimés de l’espace de stockage. 

Vous pouvez les configurer à l’aide de l’AWS Management Console, de l’interface de ligne de commande AWS (CLI) ou des outils AWS pour Windows PowerShell.

1. Commencez par ouvrir la console et accédez au bucket souhaité :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

2. Cliquez ensuite sur “Properties”, ouvrez la section “Lifecycle” et cliquez sur “Add rule” :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

3. Choisissez votre cible (le bucket entier ou le sous-ensemble préfixé de votre choix) puis cliquez sur “Configure Rule” :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

4. Activez ensuite la nouvelle règle et sélectionnez la période d’expiration souhaitée :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

Vous souhaitez davantage d’informations sur ce nouveau service AWS, n’hésitez pas à contacter l’équipe de premaccess. Spécialisée dans le cloud d’AWS, elle vous conseillera sur ce sujet. 

Pour aller plus loin sur la FinOps

FAQ à propos d’Amazon S3

Qu’est-ce qu’Amazon S3 ?

Amazon S3 est un stockage d’objets conçu pour stocker des données. C’est un service de stockage simple qui offre une infrastructure de stockage de données extrêmement durable, hautement disponible et infiniment évolutive à des coûts très faibles.

La tarification S3

Lors du choix de la classe de stockage S3 idéale pour votre profil de données, vous devez prendre en compte quatre éléments de coûts : la tarification du stockage, la tarification des requêtes et de l’extraction des données, la tarification du transfert des données et de l’accélération du transfert des données et la tarification des fonctions de gestion des données. Pour en savoir + > https://aws.amazon.com/fr/s3/pricing/

Le Cloud séduit de plus en plus d’entreprises. Elles sont aujourd’hui nombreuses à basculer progressivement tout ou partie de leur Système d’Information (SI) sur le nuage. Et pour cause. Selon l’étude « Multi-Cloud, Cloud Hybride et Services Managés : Approches, Tendances & Enjeux à 2021 » menée par le cabinet Markess, auprès de 120 DSI et CTO, 

  • 55% d’entre eux expliquent que leurs dépenses dans les Clouds publics vont augmenter au fil du temps,
  • Et 51% ont recours à plusieurs formes de Cloud (différents IaaS publics, IaaS public avec IaaS privé, etc.).

Pour plusieurs DSI et CTO, cette stratégie « Cloud et multi-Cloud » apporte de nombreux avantages : agilité, accès à des services innovants (IA et Machine Learning, Data analytics, etc.), déploiement plus rapide de nouveaux services. Mais, elle demande également un réel accompagnement pour gérer correctement ces environnements, et garder ces architectures Cloud en condition opérationnelle permanente.

Pour répondre à ces besoins, les partenaires de Cloud Providers, et notamment premaccess, proposent des services managés. Appelés Cloud Managed Services Providers, ils se donnent pour objectif de décharger les DSI de la gestion des SI afin qu’elles puissent se focaliser davantage sur l’innovation, et moins sur la maintenance de leur infrastructure informatique. 

En quoi consistent ces services managés Cloud ?

À travers ces services, les MSP s’assurent que les bonnes pratiques en matière d’architecture Cloud sont bien respectées sur votre infrastructure. Ces bonnes pratiques reposent sur 5 piliers : excellence opérationnelle, sécurité, fiabilité, efficacité de la performance et optimisation des coûts.

services managés cloud - les bonnes pratiques reposent sur 5 piliers : excellence opérationnelle, sécurité, fiabilité, efficacité de la performance et optimisation des coûts.

Parmi ces services managés, vous pouvez retrouver :

L’aide à la migration

En fonction de vos compétences et ressources en interne, vous disposez d’un accompagnement et de conseils d’experts pour migrer vers le modèle de services Cloud le plus adapté à vos enjeux (IaaS, PaaS, Saas).

La surveillance

Il convient de surveiller votre infrastructure Cloud afin de prévenir toutes défaillances, et réagir en cas de variations de performances sur l’ensemble du système. Pour cela, les MSP récoltent en temps réel des données sur votre système d’information afin de :

  • veiller à sa bonne santé, 
  • déceler des comportements anormaux sur vos environnements, 
  • définir des alarmes si besoin,
  • automatiser des actions sur la base de seuils prédéfinis, etc. 

La sécurité

Un MSP garantit la sécurité de vos données et de vos infrastructures. Par « sécurité », nous entendons : 

  • confidentialité et intégrité des données, 
  • identification et gestion des utilisateurs et de leurs autorisations, 
  • protection des systèmes, 
  • et mise en place de contrôles pour détecter les événements de sécurité.

La maintenance préventive et en temps réel

Parmi les mesures préventives, nous pouvons notamment citer la sauvegarde et la réplication de vos données, ainsi que leur restauration si besoin.

La maintenance en temps réel consiste en la résolution des incidents dans un temps imparti assez court pour éviter toute indisponibilité de vos services. Dans ce cadre figurent :

  • Le Plan de Continuité d’Activité (PCA) : il assure la reprise la plus rapide possible de l’infrastructure, en cas de sinistre, avec le moins de pertes de données.
  • Le Plan de Reprise d’activité (PRA) : en cas d’incident majeur, les MSP gèrent la reconstruction de votre SI et la remise en activité de vos applications. 

Le PCA et le PRA sont essentiels pour minimiser l’impact financier sur votre activité lors d’incidents informatiques.

L’optimisation des coûts

Les fournisseurs de services managés vous aident aussi à éliminer les coûts superflus, en contrôlant vos dépenses sur le Cloud, et en sélectionnant pour vous les ressources les plus appropriées selon vos besoins et votre budget.

La veille technologique

Enfin, les MSP sont des experts en architectures Cloud. En veille constante sur les dernières tendances du secteur, ils vous conseillent sur l’évolution de votre SI dans le temps en fonction de vos nouveaux besoins ou nouvelles offres.

Les avantages des services managés Cloud

En optant pour ces services managés Cloud :

Services managés cloud avantages
  • Vous avez l’assurance que votre Système d’Information est toujours disponible dans le temps. Vous vous protégez contre tous arrêts et incidents.
  • Vous êtes libéré des contraintes informatiques. Ainsi, vous augmentez votre productivité en interne, et vous permettez notamment à votre DSI d’être davantage tournée vers l’innovation de vos services.
  • Vous gagnez en efficience en vous concentrant sur votre coeur de métier. Fini la perte de temps avec la maintenance.
  • La sécurité de votre système est 100% fiable. Vous n’avez plus à vous en soucier.
  • Vous réalisez des économies car les MSP, experts en FinOps, vous aident à optimiser durablement vos dépenses.
  • Et, cela est primordial, vous restez innovant grâce à la veille technologique de ces fournisseurs de services managés.

En tant que décideurs, DSI ou CTO, si vous souhaitez externaliser la gestion de votre SI, n’hésitez pas à contacter l’équipe de premaccess. Experte en services managés Cloud, elle vous conseillera et vous proposera un accompagnement sur-mesure adapté à vos besoins. Objectif : vous simplifier la gestion quotidienne de votre IT !

Pour aller plus loin sur les services managés cloud :