Durant quelques jours, Las Vegas devient la capitale mondiale de la technologie avec le salon CES 2020. 

Premaccess a choisi pour vous les 10 nouveautés les plus intéressantes pour ne rien rater des tendances à venir. 

Samsung Ballie – l’assistant personnel

Ballie est un petit robot ressemblant à une balle de tennis. 

Le robot est destiné à venir s’intégrer dans la maison connectée et devenir un assistant personnel d’un nouveau genre puisque celui-ci vous suivra à la trace. 

Avec une caméra intégrée et son intelligence artificielle embarqué, Ballie peut répondre à la moindre de vos sollicitations. 

Samsung n’a pas encore mentionné quand Ballie sera disponible, ni même à quel prix.

Démonstration en vidéo : 

ACTRONIKA et la veste haptique

La start-up parisienne Actronika a dévoilé une veste à retour haptique qui reproduit des sensations réalistes pour la réalité virtuelle et augmentée. 

Elle permet ainsi de ressentir la sensation de toucher dans le monde réel en fonction des événements qui surviennent dans la réalité virtuelle.

Dans l’univers du jeu ou encore de la formation professionnelle, cette technologie permet une immersion totale en reproduisant des sensations en temps réel tels que le feu, le vent, l’utilisation d’outils, les tirs ou encore des interactions sociales.

Retrouvez l’interview complète de Gilles Meyer, co-fondateur et CEO d’Actronika : 

Taxis volants autonomes

Hyundai, en partenariat avec Uber, a présenté un prototype de taxi volant le S-A1, qui a une vitesse de croisière pouvant aller jusqu’à 290 km/h et pouvant transporter jusqu’à quatre personnes. 

L’appareil utilise « une propulsion électrique distribuée », pensée avec plusieurs rotors pouvant le garder dans les airs si l’un d’eux a un problème. 

Test courant 2020 et commercialisation prévu pour 2023. 

Image et vidéo du prototype : 

Le pare brise du futur

BMW imagine un cockpit dédié à la mobilité autonome et présente le concept BMW i Interaction EASE. Ce dernier peut diffuser des films, donner des informations sur l’environnement extérieur ou proposer une expérience relaxante.

L’élément le plus novateur est l’intelligence artificielle du véhicule couplée à une surveillance du regard des occupants.

Découvrez la conférence BMW du CES2020 : 

Charmin Rollbot – le robot dans les toilettes 

Procter & Gamble a dévoilé un robot avec un seul objectif : vous apporter du papier quand vous êtes aux toilettes et que vous n’en avez plus.

Baptisé Charmin Rollbot, il se commande via un smartphone grâce à une connexion Bluetooth

Pour l’instant, Procter & Gamble n’a pas l’intention de commercialiser son robot. Ouf… 

Vidéo de démonstration : 

La serrure connectée 

Ce verrou intelligent Wi-Fi présenté par August vous permet de verrouiller ou de déverrouiller une porte à distance et d’accorder l’accès aux membres de la famille, aux amis et aux visiteurs de confiance directement à partir de votre smartphone.

Vous pouvez savoir qui va et vient à tout moment, avec des notifications push. 

Il existe également des fonctions de verrouillage et de déverrouillage automatiques.

August indique que le Wi-Fi Smart Lock sera bientôt disponible à l’achat sur son site Web sans préciser la date de sortie tout comme le prix de vente. 

Démonstration en vidéo : 

La tablette pliable avec écran OLED

Lenovo présente la première tablette avec un écran OLED pliable, baptisé Thinkpad x1 Fold. 

L’écran utilisé est entièrement plat, il fait 13,3 pouces de diagonale avec un ratio d’affichage 4:3 et une définition de 2 048 x 1 536 pixels (comme un iPad). 

Lenovo promet 11 heures d’autonomie, on retrouve également 8 Go de mémoire LPDDR4X, un SSD jusqu’à 1 To (PCIe-NVMe M.2) et le processeur hybride Lakefield d’Intel.

La commercialisation du ThinkPad X1 Fold est programmée pour le second semestre 2020 à partir de 2 499 dollars.

Démonstration en vidéo : 

L’Exosquelette destiné à soulager le travail humain

L’exosquelette imaginé, conçu et fabriqué par la société Sarcos Robotics et baptisé Guardian XO vous donne la force de 20 hommes.

L’exosquelette offre une autonomie comprise entre 2 à 8 heures avec une alimentation par deux batteries de 500 W chacune qu’il est possible de changer à chaud.

Des versions alpha de la combinaison sont louées déjà actuellement par des entreprises partenaires de Sarcos Robotics pour un tarif de 90 000 euros par an.

Démonstration en vidéo : 

Le robot-livreur bipède Digit

Ford a dévoilé en partenariat avec Agility Robotics un robot bipède nommée Digit, capable de porter et charger une camionnette avec des cartons.

Fabriqué dans un matériau léger, muni de bras terminés par des moignons caoutchoutés, ce robot est capable de monter, descendre des escaliers, d’arpenter un terrain accidenté et parvient à garder l’équilibre lorsqu’il est heurté, le tout en portant des paquets pouvant peser 18 kg maximum.  

Démonstration en vidéo : 

Le micro-ondes inversé Juno

Ce dispositif thermoélectrique est capable de rafraîchir des liquides en seulement 1 à 2 minutes pour les cannettes (33 cl) et 5 minutes pour les bouteilles plus volumineuses (750 ml).

Il est toujours possible de le précommander en déboursant 179 €, avant qu’il ne passe à 360 € à son lancement, qui devrait avoir lieu en août 2020

Démonstration en vidéo : 

Le developpement SaaS d’une application pour transmettre les gestes techniques et les savoir-faire n’est pas chose aisée.
Pour y remédier, l’entreprise Sourcin a créé, en 2011, une plateforme multimédia alliant collaboratif et e-learning. Pour chacun de ses clients, elle y rassemble l’ensemble de leurs procédures sous forme de courtes vidéos graphiquement enrichies et segmentées en étapes élémentaires. (Mediabook).
Dans l’industrie pharmaceutique et de la biotechnologie, ce transfert de connaissances entre collaborateurs est d’autant plus problématique que toutes mauvaises manipulations peuvent engendrer de graves erreurs. 

Objectif : former en continu les opérateurs de production et les assister sur leur poste. 

Épaulée par les équipes de premaccess, ce developpement SaaS a pour objectif une plateforme qui a permis à Sourcin d’innover il y a deux ans, en basculant sur le cloud d’AWS. Son co-fondateur Arnaud Schmutz nous explique ce que lui apporte AWS dans le développement SaaS de Sourcin, tant en sécurité qu’en disponibilité de services. Deux composantes primordiales pour le secteur de la biopharma en pleine transformation digitale.

Sourcin ancre le savoir-faire de la biotechnologie grâce à la vidéo 

« Toute ma vie professionnelle a été consacrée au secteur pharmaceutique et de la biotechnologie. Au fur et à mesure de mon parcours, je me suis rendu compte que le fait d’avoir une procédure écrite n’était pas toujours la garantie qu’elle soit comprise par tous. Et, que la meilleure manière de transmettre de la connaissance était finalement en la montrant. C’est ainsi qu’est née l’idée de Sourcin.

Avec nos clients, nous créons des vidéos courtes de 5 minutes maximum ainsi que des animations pour montrer leurs différents gestes techniques en production. Ces vidéos sont muettes pour qu’elles soient comprises par tous leurs collaborateurs. Notre leitmotiv est clair : « keep it simple and smart ». Rassemblées, ces vidéos composent alors un parcours de formation, disponible sur notre plateforme multimédia. En favorisant des parcours d’apprentissage en mode « blended-learning », les collaborateurs de nos clients vont visionner ces Mediabooks, dans un premier temps, seuls –  en distanciel (e-learning) -, pour apprendre les gestes, suivre les cours associés et se tester via des quiz et évaluations interactives. Puis, en présentiel avec un expert métier, ils vont les analyser en détail avant de passer en atelier. Enfin, par souci de cohérence, ces vidéos serviront d’assistance au poste puisqu’elles sont disponibles 24/7 et toujours à jour. Avec cette plateforme multimédia unique, nos clients ancrent leur savoir-faire, pour mieux le partager, le rendre pérenne, et ainsi gagner en efficience. »

Objectif principal du Saas : rendre les vidéos disponibles 24/7 à travers le monde

« Au tout début de Sourcin, pour transmettre ces vidéos à nos clients, nous les gravions sur un CD. Très vite, nous nous sommes rendus compte que ce support était inadéquat pour plusieurs raisons : les personnes en possession du CD n’avaient pas forcément un lecteur pour le lire, elles n’étaient pas forcément les plus concernées par son contenu, et il était possible qu’elles partent à la concurrence le CD en poche. Il fallait donc sécuriser ce savoir. D’autant que nous travaillons, sous contrat de confidentialité avec des entreprises mondiales. Deuxième prérequis : il fallait que nos vidéos soient disponibles partout et tout le temps. Nos clients sont principalement américains et européens. Mais leurs utilisateurs sont installés à travers le monde. C’est ainsi qu’est née la première version de notre plateforme multimédia en 2011. »

Les premiers apports de premaccess : de la haute disponibilité des ressources grâce au serverless et une rapidité de déploiement 

« Nous travaillons avec premaccess depuis près de 7 ans. Initialement, leurs équipes s’occupaient uniquement de l’hébergement et de l’infogérance de notre plateforme. La sécurité est leur coeur de métier. Progressivement, ils nous ont présenté les intérêts du cloud d’AWS. C’est ainsi que nous avons repensé notre interface il y a deux ans afin de migrer vers une architecture Serverless et des technologies innovantes. Cela nous a demandé de repenser l’ensemble de nos besoins, tant en termes de marché, de fonctionnalités, d’interface, de design, de diffusion… Désormais, nous sommes 100% propriétaires du developpement SaaS de notre plateforme ultra-sécurisée. Grâce à cette nouvelle architecture Serverless, nous avons gagné en qualité de diffusion de vidéos. Ces dernières sont moins compressées, bien plus précises, plus belles. Ce qui est primordial pour retenir l’attention des personnes connectées. Nous gérons plus facilement les comptes utilisateurs, leur authentification, leurs droits d’accès associés (qui peut faire quoi sur cette plateforme), ainsi que leurs données personnelles en règle avec le RGPD. De plus, cette plateforme est disponible en mode SaaS, un avantage non négligeable pour nos clients : ils ont juste à s’y connecter et à l’utiliser, sans se soucier de sa maintenance.

Par ailleurs, lors du développement SaaS de cette plateforme, une fois la structure d’un espace client créée, nous avons utilisé BAM pour automatiser la duplication de cette architecture centrale pour chacun de nos autres clients. BAM (Build Automation Machine, ndlr) est un outil développé par premaccess. Cette solution a permis d’automatiser notre déploiement facilement, rapidement et en toute sécurité en partant d’un modèle, et d’orchestrer le cycle de vie de notre production. »

AWS et la biopharma : données sécurisées et principes d’ALCOA+ respectés

« Les autorités en charge de la mise sur le marché d’un médicament (ANSM en France, FDA aux USA, EMA à l’échelle de l’Europe) demandent à ce que les données autour des produits soient sécurisées. Dans ce cadre, depuis sa bascule sur AWS, Sourcin est conforme aux règles du cloud dans le secteur pharmaceutique. Lors du développement SaaS de notre plateforme, nous avons été attentifs à ce que nos données respectent le principe d’ALCOA+, garantissant l’intégrité des données. Cet acronyme reprend neuf principes que nous suivons scrupuleusement pour la gestion des datas: Attribuable, Lisible, Contemporain, Original, Exact, Complet, Cohérent, Durable et Disponible. 

Ceci a été possible grâce aux conseils avisés de l’équipe de premaccess. Dotée d’une expertise rare, cette équipe est composée de personnes particulièrement qualifiées sur les technologies de pointe proposées par AWS. Au fur et à mesure du développement SaaS de Sourcin, elles ont été force de propositions. De quoi donner un formidable effet de levier à notre projet. » 

ENCADRÉ

Voici quelques-uns des services AWS utilisés dans ce projet :

Concrétisons ensemble votre prochaine innovation ! Contactez-nous : https://www.premaccess.com/contact/

Basculer tout ou partie de son infrastructure sur le Cloud d’AWS a un coût. Mais, il est possible d’optimiser ces dépenses. La solution idéale : avoir une démarche FinOps. Ce processus fait son apparition aujourd’hui dans les grands groupes. Il vise à rapprocher finance et ingénierie. En conjuguant leurs compétences, ses équipes analysent vos infrastructures avec un oeil nouveau avec pour objectifs une démarche FinOps pour améliorer votre usage du Cloud afin de réduire considérablement votre facture. 

Sur AWS, il existe 5 grands piliers ou astuces pour optimiser les coûts. Si vous souhaitez installer vos applications chez ce Cloud Provider, nous vous invitons à suivre ces 5 recommandations. Vous intégrerez ainsi la FinOps dans votre stratégie digitale.

FinOps #1 : Configurez efficacement la taille de vos instances

Sur AWS, il est possible d’ajuster la taille des services utilisés en fonction de vos besoins à l’instant T, et de les redimensionner au fur et à mesure selon les pics de charges enregistrés. Cet ajustement dépend de plusieurs facteurs : de votre environnement (développement, test ou production), de la fluctuation de votre activité en ligne, etc…

Bien adapter la taille de vos instances a un impact sur la capacité de calcul de votre infrastructure, sur sa mémoire, son stockage, le débit du réseau…

Pour cela, trois services managés sont à votre disposition sur AWS : 

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici

FinOps #2 : Optez pour l’élasticité

L’intérêt du FinOps sur le cloud est que vous pouvez augmenter ou réduire les ressources nécessaires en fonction de vos besoins. En cas d’augmentation de trafic, vous devrez utiliser plus de ressources. Une fois ce pic redescendu, inutile de garder cette configuration.

Objectif : ne payez que ce que vous consommez. 

Il existe deux types d’élasticité : une première basée sur le temps, une seconde calculée sur le volume de ressources nécessaires au bon fonctionnement. Sur AWS, plusieurs services managés vous aident à paramétrer ces élasticités :

  • Amazon EC2 Scheduler permet de configurer le planning de démarrage et d’arrêt des instances Amazon EC2.
  • AWS Lambda exécute votre code uniquement lorsque cela est nécessaire et s’adapte automatiquement, qu’il s’agisse de quelques demandes par jour ou de milliers par seconde.
  • AWS DataPipeline arrête et démarre les instances Amazon EC2 en exécutant des commandes CLI (AWS) sur un horaire fixe.
  • Amazon CloudWatch surveille votre utilisation des instances Amazon EC2 et les arrête si elles ne sont pas utilisées.
  • AWS Auto Scaling augmente et réduit automatiquement le nombre de vos instances Amazon EC2 afin de maintenir la performance du système en cas de pic de trafic et de réduire ses capacités en cas de période creuse.

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici

FinOps #3 : Utilisez le bon modèle de tarification

AWS proposait jusqu’à présent trois modèles de tarification : instances à la demande, instances réservées, et instances spot. Il en propose un quatrième depuis ce mois-ci : le Savings Plans. La combinaison de ces quatre modèles vous permettra de réduire les coûts.

Avec les instances à la demande, vous payez la capacité de calcul à l’heure ou à la seconde (60 secondes minimum) sans engagement à long terme.

Avec les instances réservées, vous bénéficiez d’une remise conséquente (jusqu’à 75 %) par rapport à la tarification à la demande. Vous disposez également d’une réservation de capacité quand elles sont exécutées dans une zone de disponibilité spécifique.

Avec les instances Spot Amazon EC2, vous profitez des capacités EC2 non utilisées dans le cloud AWS. Ces instances sont disponibles avec une réduction allant jusqu’à 90 % par rapport aux tarifs à la demande. Elles sont utilisables pour des applications statiques, tolérantes aux pannes ou flexibles comme, par exemple, les charges de travail du test et développement. 

Lancé en Novembre 2019, le Savings Plans offre les mêmes réductions que les instances réservées, mais, pour pouvoir y accéder, l’utilisateur doit s’engager à utiliser un montant spécifique de puissance de calcul (mesuré en dollars par heure) sur une période maximale de trois ans.

Ce modèle est intéressant pour les entreprises qui ont un aperçu de leurs besoins sur le long terme. Cela leur permettra de réserver les ressources nécessaires sur une période longue bien définie, tout en réalisant des économies.

Ce Savings Plans FinOps est disponible sous deux versions :

Le plan « Compute Savings » offre une grande flexibilité et permet de réduire vos coûts jusqu’à 66% (tout comme les instances réservées convertibles). Ce plan s’applique automatiquement à toute instance EC2, quelle que soit la région. Par exemple, vous pouvez passer d’instances C4 à C5, déplacer une charge de travail de Dublin à Londres, en bénéficiant des prix de ce plan d’épargne.

À la différence, le Savings Plans EC2 s’applique à une famille d’instances spécifique dans une seule région et mais offre un rabais le plus important (jusqu’à 72%). 

Savings Plan AWS

Pour aller plus loin sur le Savings Plans : https://aws.amazon.com/fr/savingsplans/

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici

FinOps #4 : Optimisez votre espace de stockage

AWS propose plusieurs services de stockage. La clé, pour assurer votre budget FinOps sur cette partie, est de bien choisir votre espace en fonction de vos usages.

Avec Amazon S3, vous disposez d’une offre large de stockage conçue pour différents types d’utilisation :

– S3 Standard est dédié au stockage de données « à usage général ».

– À l’inverse, Reduced Redundancy Storage (RRS) vous permet de stocker les données non critiques et reproductibles à des niveaux de redondance inférieurs à ceux du stockage standard Amazon S3.

– S3 Intelligent-Tiering permet de déplacer des données entre deux niveaux d’accès (fréquent et peu fréquent). Idéal pour les données dont les schémas d’accès sont inconnus ou modifiés.

– S3 Standard-Infrequent Access (S3 Standard-IA) est prévue pour les données auxquelles on accède rarement (copie de sauvegarde secondaire de données d’un site, etc…)

– Amazon S3 Glacier (S3 Glacier) et Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) sont des classes de stockage destinées à l’archivage et la sauvegarde des données à long terme. Toutes deux proposent des options d’accès aux archives à coûts avantageux. Ces accès ont des délais allant de quelques minutes à 12 ou 48 heures.

Avec Amazon Elastic Block Store (Amazon EBS), vous optez pour un stockage permanent accessible par des instances EC2 simples. Cela est utile pour les bases de données relationnelles et NoSQL, les applications d’entreprise, et les analyses de Big Data.

Amazon Elastic File System (Amazon EFS) est utile pour le stockage simple de fichiers et pour une charges de travail basée sur Linux. 

Amazon FSx for Lustre est nécessaire pour les charges de travail demandant une importante capacité de calcul, telles que le Machine Learning et le traitement de données multimédia.
Amazon FSx for Windows File Server est dédié aux applications Windows qui nécessitent un stockage de fichiers vers AWS.

AWS Storage Gateway soutient des opérations de cloud bursting, de hiérarchisation et de migration.

Enfin, AWS Backup centralise et automatise la sauvegarde de données sur l’ensemble des services AWS.

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici

FinOps #5 : Mesurez et surveillez vos environnements

Pensez, en premier lieu, à baliser (Charte de TAG) vos instances, images et diverses ressources. 

Utilisez, en second temps, AWS Cost Explorer. Avec ce service managé, vous visualisez et comprenez mieux votre utilisation d’AWS avec vos balises en place projet par projet. Ainsi, vous maximisez votre gestion du Cloud au fur et à mesure. Grâce à AWS Cost Explorer, vous disposez de rapports sur vos coûts mensuels par service, par compte, par projet…

Enfin, si vous voulez être alerté en cas de dépassement de budget, optez pour AWS Budgets. Avec ce service, vous définissez des montants à investir. Une fois cette somme atteinte, vous êtes aussitôt prévenu.

Adopter une démarche FinOps n’est pas simple. Taille des instances, auto-scaling, tarification, stockage… Plusieurs éléments sont à prendre en compte pour réussir à jongler entre ingénierie et coûts.
Aussi, si vous souhaitez réduire vos dépenses d’infrastructure sur AWS, n’hésitez pas à solliciter les équipes de premaccess. Spécialisées dans les services managés de ce Cloud Provider, elles auront à coeur de vous conseiller et de vous accompagner dans cette quête d’optimisation technique et financière FinOps .

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici #FinOps #CostKilling addict 🙂

Les premières annonces faites à AWS re:Invent 2019

Depuis le 2 décembre, les experts d’AWS, à travers le monde, se sont donné rendez-vous à la conférence annuelle du cloud provider, AWS re:Invent 2019, à Las Vegas. L’équipe de premaccess n’a pas manqué cet évènement incontournable. Elle vous rapporte les premières annonces d’AWS, tant en nouveaux services qu’en fonctionnalités supplémentaires.


Amazon Bracket

Vous allez découvrir l’informatique quantique (Quantum Computing). À la différence des ordinateurs classiques qui réalisent des opérations avec des bits égaux à 0 ou 1, les ordinateurs quantiques peuvent produire des opérations avec des bits à l’état de 0 et 1. Nous parlons alors de qubits. Ces ordinateurs peuvent ainsi démultiplier le nombre de calculs. Ils sont rares et doivent fonctionner dans des environnements physiques contrôlés. Avec Amazon Bracket, vous pouvez acquérir une expérience pratique des qubits et des circuits quantiques, créer et tester vos circuits dans un environnement simulé.

https://aws.amazon.com/de/blogs/aws/amazon-braket-get-started-with-quantum-computing/


Amazon Outpost

Annoncé l’an dernier en preview, ce service est désormais disponible. Il vous permet d’exécuter votre infrastructure AWS sur site, en ayant accès aux mêmes API et outils disponibles aujourd’hui sur le cloud.

https://aws.amazon.com/fr/outposts/


Amazon EKS est maintenant disponible sur Amazon Fargate

Ainsi, vous pouvez utiliser Amazon Elastic Kubernetes (EKS) pour exécuter les pods Kubernetes sur AWS Fargate. EKS et Fargate facilitent l’exécution d’applications basées sur Kubernetes sur AWS. Avec AWS Fargate, plus besoin d’être des experts des opérations Kubernetes pour gérer un cluster hautement disponible et optimisé en termes de coûts. Plus besoin non plus de gérer les instances EC2. 

https://aws.amazon.com/fr/blogs/aws/amazon-eks-on-aws-fargate-now-generally-available/


Amazon S3 Access Points

est une nouvelle fonctionnalité S3. Elle simplifie la gestion de l’accès aux données partagées. Avec S3 Access Points, vous pouvez facilement créer des centaines de points d’accès avec un nom dédié et des autorisations personnalisées sur votre application. 

https://aws.amazon.com/fr/about-aws/whats-new/2019/12/amazon-s3-access-points-manage-data-access-at-scale-shared-data-sets/


Provisioned Concurrency pour les fonctions Lambda

alors que Lambda fête ses 5 ans, l’équipe d’AWS nous propose de contrôler encore mieux les performances de nos applications en serverless. Et ce, avec Provisioned Concurrency. Cette fonctionnalité maintient les fonctions initialisées de vos applications pour qu’elles répondent en quelques millisecondes. Cela peut être notamment utile pour les microservices.

https://aws.amazon.com/fr/blogs/aws/new-provisioned-concurrency-for-lambda-functions/


Amazon CodeGuru

Vous pouvez automatiser la révision de votre code. Même pour les ingénieurs les plus expérimentés, il peut être difficile de détecter des problèmes dans le code lors de revues par des pairs ou lors de tests unitaires. Amazon CodeGuru vous permet d’identifier les lignes de code les plus chères dans vos applications et de recevoir des recommandations afin de les corriger ou de les améliorer.


https://aws.amazon.com/fr/about-aws/whats-new/2019/12/aws-announces-amazon-codeguru-for-automated-code-reviews-and-application-performance-recommendations/


Côté Machine Learning, plusieurs nouvelles fonctionnalités ont été ajoutées à Amazon SageMaker.

Nous retrouvons notamment :

Studio : premier environnement de développement entièrement dédié au Machine Learning

https://aws.amazon.com/fr/blogs/aws/amazon-sagemaker-studio-the-first-fully-integrated-development-environment-for-machine-learning/

Model Monitor : surveillance automatique de vos modèles de Machine Learning en production

https://aws.amazon.com/fr/blogs/aws/amazon-sagemaker-model-monitor-fully-managed-automatic-monitoring-for-your-machine-learning-models/

Autopilot : pour créer des modèles de Machine Learning de haute qualité

https://aws.amazon.com/fr/blogs/aws/amazon-sagemaker-autopilot-fully-managed-automatic-machine-learning/


EC2 Image Builder

jusqu’à présent, il n’était pas simple d’automatiser la génération d’images virtuelles. EC2 Image Builder pallie ce manque. Ce nouveau service facilite et accélère la création et la maintenance d’images de système d’exploitation sécurisé pour Windows Server et Amazon Linux 2. Et ce, à l’aide de pipelines de génération automatisés. Les images, créées par EC2 Image Builder, peuvent être utilisées avec Amazon Elastic Compute Cloud (EC2).

https://aws.amazon.com/de/blogs/aws/automate-os-image-build-pipelines-with-ec2-image-builder/


Managed Cassandra Service

avec Apache Cassandra, vous stockez et gérez de grandes quantités de données structurées. Mais, la gestion de ces données n’est pas toujours simple et peut prendre beaucoup de temps. Pour remédier à cela, AWS lance le service Amazon Managed Apache Cassandra Service (MCS). Il s’agit d’un service de base de données évolutif, hautement disponible et compatible avec Apache Cassandra. Amazon MCS étant serverless, vous ne payez que pour les ressources que vous utilisez. Il redimensionne automatiquement vos tables en fonction du trafic de vos applications. Avec MCS, vous n’avez pas de limite dans la taille des tables. Vos données sont répliquées automatiquement trois fois sur plusieurs zones de disponibilité AWS pour des raisons de durabilité. Enfin, ce nouveau service est intégré à AWS Identity and Access Management (IAM) pour vous aider à gérer l’accès à vos tables et données.

https://aws.amazon.com/fr/blogs/aws/new-amazon-managed-apache-cassandra-service-mcs/


Amazon Detective

Vous aide à analyser et à visualiser la sécurité de vos données à grande échelle. Ce service n’est pas encore disponible, mais vous pouvez en avoir un aperçu ici :

https://pages.awscloud.com/amazon-detective-preview.html


UltraWarm

Nouvel outil de stockage de haute disponibilité pour Amazon Elasticsearch Service. Entièrement managé et peu coûteux, il est aujourd’hui disponible en preview. Il offre jusqu’à 900 To de stockage.

https://aws.amazon.com/fr/blogs/aws/announcing-ultrawarm-preview-for-amazon-elasticsearch-service/


Firecracker-containerd

Le repository Firecracker-containerd, disponible sur Github, permet d’utiliser un container runtime, Containerd, pour manager les microVM de Firecracker. Firecracker est une technologie de virtualisation open source spécialement conçue pour gérer des services sécurisés, multi-locataires et basés sur des conteneurs. Grâce à ce service, présenté l’an dernier, vous pouvez déployer des charges de travail sur des machines virtuelles légères (microVM). Ces dernières offrent une sécurité et une isolation de charge de travail améliorées par rapport aux machines virtuelles traditionnelles, tout en optimisant la rapidité et l’efficacité des conteneurs. Firecracker a été développé par AWS pour améliorer l’expérience client notamment sur AWS Lambda et AWS Fargate.


https://github.com/firecracker-microvm/firecracker-containerd
https://firecracker-microvm.github.io/


Pour suivre les prochaines annonces faites au re:Invent 2019, n’hésitez à nous suivre sur notre blog et sur les réseaux sociaux.

En cette fin d’année, les experts du Cloud Computing n’ont qu’un rendez-vous à ne pas manquer : AWS re:Invent à Las Vegas. 

Cette nouvelle édition se tiendra du 2 au 6 décembre. 

Plus de 60 000 participants sont attendus. 

Près de 2500 sessions, ateliers et workshops y sont prévus. 

Pour AWS, cette grande messe est cruciale et son objectif est clair : prouver une fois de plus sa place de leader sur le marché.

Si vous souhaitez vous mettre à jour des tendances en matière de Cloud Computing, AWS re:Invent 2019 est l’évènement incontournable. Ce rendez-vous s’adresse aux initiés des services AWS (développeurs, ingénieurs, architectes système…), mais également aux débutants. 

Année après année, ce grand évènement se veut de plus en plus ludique et pédagogique. 

Au programme : 

  • 4 temps-forts avec les keynotes, 
  • des temps de découverte et d’apprentissage avec plus 2500 sessions, ateliers et workshops. 
  • et un sommet pour les leaders DSI, l’Executive Summit, du 3 au 5 décembre. https://reinvent.awsevents.com/learn/executive_summit/ L’objectif de ce sommet est de réunir les dirigeants du monde entier pour discuter des défis et challenges que nous offre le cloud.

Pour vous y retrouver dans cet important programme, voici un focus sur l’émission « How to re:Invent », le catalogue des sessions, les guides des héros AWS, et les keynotes à ne pas rater.

AWS re:Invent l’emission live

Cette année encore, Jill Fagan (senior program manager AWS) et Annie Hancock (Head of creative & customer expériences AWS) décortiquent cet évènement à travers leur émission « How to re:Invent », visible sur YouTube. Elles y invitent des experts clés, font des focus sur des trucs et astuces à ne pas rater, et nous aident ainsi à tirer le meilleur de cette immense conférence. Voici la liste des vidéos disponibles : 

L’intérêt de cette web émission est qu’elle est facile d’accès. Elle nous permet de nous plonger dans le programme particulièrement dense de cette nouvelle édition de façon divertissante. Et surtout, elle est à l’image de la philosophie d’AWS : se rendre accessible au plus grand nombre. 

Le catalogue de sessions 

L’an dernier, AWS avait proposé 1800 sessions de présentation de ses services. Cette année, elles prennent encore davantage d’ampleur, car nous en compterons 2500. Elles sont organisées sous différentes formes : présentations en 20 minutes, bootcamps, ateliers, workshops, spotlights lab, sessions de constructeur avec un expert AWS…

Et abordent tous les sujets possibles chez AWS : Alexa, Artificial Intelligence & Machine Learning, Blockchain, Database, IoT, Serverless, Architecture, Mobile…

Vous les découvrez via ce portail >> https://www.portal.reinvent.awsevents.com/connect/search.ww?csrftkn=FTDU-PPS3-VOGS-06BA-TYCW-5647-TX1H-R20O

Plusieurs d’entre elles seront probablement disponibles sur la chaîne YouTube d’Amazon Web Service : https://www.youtube.com/channel/UCd6MoB9NC6uYN2grvUNT-Zg

Les guides des héros AWS

Nous le savons, la force d’AWS tient notamment à sa communauté. À travers le programme AWS Hero, ce cloud provider regroupe de nombreux experts de ses services. 

Ces héros ont décidé de nous prendre par la main à l’occasion de ce re:Invent. Pour vous y retrouver dans cette masse de sessions, plusieurs d’entre eux ont rédigé les guides suivants. Machine Learning, Sécurité, DevOps, Certification AWS, nombreux sont les sujets abordés. Leur objectif est de vous aider à trouver des événements pouvant vous intéresser sur telle ou telle thématique, et ce, en fonction de votre niveau (débutant ou initié) :

Enfin, les keynotes 2019 https://reinvent.awsevents.com/learn/keynotes/

4 keynotes sont prévues cette année. Elles seront, une fois de plus, l’occasion de découvrir les nouveaux produits et services d’AWS. Les voici :

  • Lors du Monday Night Live, le 2 décembre, Peter DeSantis, vice-président AWS Global Infrastructure and Customer Support, vous invitera à découvrir comment l’infrastructure AWS fournit l’environnement informatique cloud le plus flexible, fiable et sécurisé.
  • Andy Jassy, PDG d’AWS, le 3 décembre, partagera les nouveautés AWS.
  • Lors du Global Partner Summit, le 4 décembre, Doug Yeum, responsable AWS Worldwide Channels and Alliances, nous expliquera comment innover et se développer avec AWS.
  • Enfin, Dr. Werner Vogels, CTO d’amazon.com, nous parlera, le 5 décembre, des fondements techniques des services AWS et des investissements en conception architecturale réalisés par Amazon.

Si vous souhaitez vous mettre à jour des annonces faites fin 2018, les keynotes de l’an dernier sont encore disponibles en ligne : 

En conclusion : Si vous souhaitez tirer profit de cet évènement, nous vous conseillons vivement de commencer à le préparer. L’équipe de premaccess vous y attend pour discuter de vos projets de développement. N’hésitez pas à nous solliciter.

À l’issue de cette nouvelle édition, AWS annoncera des nouveautés pour 2020. Nous y reviendrons dans un nouvel article. Pour rester informés sur ce sujet, n’hésitez pas à nous suivre via notre blog ou sur nos réseaux sociaux (Facebook et Twitter) !

ICI

Depuis sa création en 2005, la société marocaine Prestigia travaille main dans la main avec premaccess. Après lui avoir demandé de gérer son hébergement informatique, elle entame désormais, à ses côtés, une nouvelle transformation digitale en migrant son infrastructure sur AWS.

Prestigia propose des hébergements de charme et de luxe à travers le monde. Son site, Prestigia.com, est une plateforme B2C construite à partir de composants open source (PHP, Go, MySQL, ElasticSearch, Redis, MongoDB). Sur ce projet de migration, les équipes de premaccess ont procédé en deux étapes :

  • Elles ont refactoré et migré ce site avec BAM (Build Automation Machine),
  • Elles ont accompagné Prestigia dans sa montée en puissance sur les services AWS.

1E ÉTAPE : REFACTORER ET MIGRER CE SITE AVEC BAM (BUILD AUTOMATION MACHINE)

Refactoring et automatisation

Le « refactoring » demande de repenser l’architecture et la manière de diffuser le code des applications métier du client au sein de celle-ci afin de pouvoir optimiser les fonctionnalités natives du cloud. Cette approche est plus longue à mettre en place que le « lift and shift » ou le « replatform ». Mais, sur le moyen et long terme, elle permet de réduire les coûts d’utilisation des services clouddrastiquement et surtout de pouvoir proposer au client des nouveaux services innovants rapidement.

Jusqu’à présent, le site de Prestigia était hébergé sur un cluster VMware (cloud privé). Avant d’entamer sa migration, les experts AWS de premaccess ont donc refactoré l’architecture du site avec l’outil d’automatisation BAM (Build Automation Machine).

Solution 100% agile, BAM permet d’automatiser les différentes étapes d’un déploiement sur AWS. En partant des modèles de templates simples pour chaque Tier de l’infrastructures (réseau, sécurité, puissance de calcul, base de données, Cache & CI/CD, etc), les devOps ont ainsi pu déployer rapidement et automatiquement les différents environnements de l’application. 

Well architected

Afin de rendre l’application « well architected », conforme aux normes du cloud provider, chaque composant de l’application a ainsi basculé vers un service d’AWS.

Les applications ont migré vers des fermes (AutoScaling Group) de serveurs virtuels Amazon EC2. Cette technologie AWS offre une capacité de calcul évolutive avec une élasticité du nombre de machines dans le cluster de chaque application métier du client. Cela rend la plateforme stable en cas de montée ou descente de trafic.

La base de données MySQL a été déplacée vers AWS RDS avec une redondance multi datacenter dans la même région (multi-AZ). Ce service managé est fourni par AWS pour les bases de données (mySQL / Postgres / SQL Server / Oracle).

MongoDB a migré vers DocumentDB. Amazon DocumentDB est un service de base de données de documents rapide, scalable, hautement disponible. Entièrement géré, il prend en charge les charges de travail MongoDB.

Les bases de données mySQL et MongoDB ont été déplacées avec l’outil DMS afin de réduire les temps d’arrêt. Dans le cadre du projet Prestigia, le temps d’arrêt a été quasi nul. Les différentes bases de données du client reposent sur des services AWS qui ont été conçus pour fournir une disponibilité de 99,99 %. Ils sont répliqués avec plusieurs copies des données dans différentes zones de disponibilité AWS. Amazon surveille ainsi en continu l’intégrité des instances de bases de données et, en moins de 30 secondes en moyenne, bascule automatiquement vers un réplica en lecture en cas de panne.

La sauvegarde a été mise en œuvre avec la sauvegarde continue RDS native et les fonctionnalités de cycle de vie EBS. Une seconde migration devrait avoir lieu dans le courant de l’été pour migrer les bases de données supportées par RDS vers RDS Aurora Serverless.

Une surveillance de la plateforme a été effectuée avec Amazon CloudWatch. Ce service d’AWS recueille les métriques et les journaux depuis toutes les ressources. Cela permet d’avoir une visibilité sur l’ensemble du système déployé, et notamment les métriques clés, comme l’utilisation du CPU, de la mémoire et de tous les métriques nécessaire pour assurer une qualité de service optimale.

2E ÉTAPE : MONTER EN PUISSANCE SUR LES SERVICES AWS

Une fois la migration achevée, Prestigia a souhaité bénéficier davantage des services d’AWS.
Objectifs : aller encore plus loin, faciliter l’expérience utilisateur sur son site et réduire au maximum ses coûts.

Réduire les coûts et les temps de chargement

Dans cette optique, certaines transactions du site sont désormais gérées avecAWS Lambda (Function as a Service par AWS). Avec ce service, Prestigia paie uniquement le temps de calcul consommé. Aucun frais n’est engagé quand le code n’est pas exécuté sur cette partie du site.

Par ailleurs, étant donné que le site Prestigia.com propose de l’hébergement de luxe à travers le monde, il répond aujourd’hui sur différentes zones géographiques. Par conséquent, son trafic fluctue sans cesse en fonction de l’activité des régions sur lesquelles il est positionné. Premaccess travaille à ce jour pour optimiser la vitesse de chargement des pages de ce site à travers le monde. L’objectif est de faire en sorte que le site réponde le plus rapidement possible partout et au meilleur tarif. “L’intérêt des services d’AWS est qu’ils nous permettent de gérer les différentes courbes de trafic de notre site, explique Youness Chraïbi (CEO Prestigia). Nous n’avons pas les mêmes trafics en fonction des zones géographiques, sur l’année, voire sur la semaine. Notre but ici est d’être au top en terme de performance et de chargement des pages. Mais également de ne payer que ce que nous consommons.”

INTELLIGENCE ARTIFICIELLE, MACHINE LEARNING & RECOMMANDATIONS PERSONNALISÉES

Après deux ans d’acculturation à Amazon Web Service, Prestigia compte bien innover grâce aux briques de services d’AWS. Sa prochaine étape consistera à utiliser le Machine Learning.

Quand il s’agit de Machine Learning et d’AI, premaccess cherche toujours à ramener ces clients à un cas d’usage métier. La question primordiale est : « Quel est votre besoin ? ». Pour Prestigia, l’idée sera de produire des recommandations, et ainsi d’orienter ses utilisateurs lors de leurs recherches. 

Avec l’intelligence artificielle, Youness Chraïbi veut “humaniser” la relation client. “Nous souhaitons ajouter un volet d’intelligence artificielle afin de conseiller encore mieux nos clients. Notre objectif avec l’AI est que l’on ait une relation plus humaine qu’avec un chatbot.”

En fonction de la manière dont un internaute surfera sur le site, le Machine Learning, interprétera ses requêtes afin de lui offrir une expérience utilisateur la plus personnalisée possible et une série de recommandations proches de ses centres d’intérêts.

Le déploiement du site Prestigia.com sur AWS est l’exemple même d’un accompagnement réussi. Lors de cette migration, Youness Chraïbi a continué à se concentrer sur son coeur de métier, l’innovation dans l’hôtellerie. Et pour mettre tout cela en oeuvre sur AWS, il a trouvé appui auprès des experts de premaccess

Ces derniers l’ont invité à avoir une vision à long terme sur AWS. Pour cela, ils ont refactoré et migré ce site avec BAM (Build Automation Machine). Cette approche lui permet aujourd’hui de réduire les coûts d’utilisation des services Cloud, et lui donne un accès plus rapide aux nouveaux services innovants de ce Cloud Provider (Intelligence Artificielle, le Machine Learning et l’Internet des objets). De quoi s’ouvrir à de nouveaux business model, et développer encore davantage cette entreprise grâce au digital.

INTERVIEW : 

Alors, si vous aussi, vous souhaitez migrer vos infrastructures sur AWS, l’équipe de premaccess est à votre disposition. Elle répondra à toutes vos questions et vous accompagnera pas à pas dans vos migrations ou dans la mise en place de vos nouveaux projets d’infrastructure cloud ou digitaux

1 – Le « lift and shift » consiste à migrer une application d’un environnement à un autre sans procéder à une quelconque refonte et modification de code. Cette méthode est aujourd’hui la plus utilisée. Elle est simple, rapide à effectuer. Cela étant, les migrations « lift and shift » ne bénéficient pas des fonctionnalités natives du cloud, telles que l’élasticité. Cette méthode peut s’avérer coûteuse sur le moyen et long terme.
2 –  Le « replatform » vise à déplacer vos applications vers le cloud avec une petite mise à niveau, en utilisant une offre de base de données gérée par le cloud ou en ajoutant l’auto-scaling (élasticité de certaines applications) activé par l’automatisation. Cette approche offre un compromis solide entre le « lift and shift » et le « refactoring ». Elle permet de tirer parti des fonctionnalités de base du cloud, d’optimiser les coûts, sans engager un niveau de ressources élevé.  

Ressources : 

AWS = services et solutions

Consulting  = découvrir notre accompagnement 

Prestigia = Découvrir leur site internet

UTILISER LE CLOUD PUBLIC NOUS AMÈNE LÉGITIMEMENT À S’INTERROGER SUR LA CONFORMITÉ AVEC LES EXIGENCES DE SÉCURITÉ DES ENTREPRISES ET DES RÉGLEMENTATIONS.

Les sujets de sécurité AWS sont globalement les mêmes que pour une infrastructure on-premise, mais nécessite une analyse spécifique liée aux particularités techniques et organisationnelles du Cloud, et aussi à la puissance des outils proposés par AWS.

En s’appuyant sur un modèle de responsabilité partagée, AWS prend en charge la sécurisation des couches basses et de l’infrastructure, et fournit à ses clients les outils permettant de sécuriser leurs applications et données. Ainsi, il appartient à chaque entreprise utilisant le cloud AWS d’optimiser la sécurité de sa plateforme et de ses applications.

Pour ce faire, différentes ressources proposées par AWS doivent être mises en oeuvre selon les besoins et contraintes de chacun. 

DÉCOUVREZ 7 CLÉS PRINCIPALES À ACTIVER POUR BOOSTER LA SÉCURITÉ DE VOTRE CLOUD AWS.

SÉCURITÉ AWS #1 METTRE EN OEUVRE DES POLITIQUES  DE SÉCURITÉ SUR TOUT LE PÉRIMÈTRE

Le premier principe pour assurer une plus grande sécurité est le périmètre d’action : il est primordial de sécuriser l’environnement de toutes les couches et de s’assurer que cela est le cas en profondeur avec différents contrôles de sécurité (par exemple, réseau de périphérie, VPC, sous-réseau, équilibreur de charge, chaque instance, système d’exploitation et applications). L’erreur la plus commune serait de se concentrer exclusivement sur la couche la plus externe. 

Tous les services AWS implémentent des mécanismes de sécurité qui leurs sont propres, en s’appuyant sur une structure et des outils communs (Policies IAM notamment).

La création de ces architectures sécurisées, notamment l’implémentation de la sécurité, peut et doit être gérée en tant que code dans des modèles versionnés et contrôlés. Ceci permet de garantir la traçabilité des changements et faciliter les éventuels retours arrières (rollbacks). 

SÉCURITÉ AWS #2 AUTOMATISER LES AUDITS

Il est important d’auditer régulièrement la conformité des configurations de vos ressources AWS. Cela permet de surveiller et de contrôler les paramètres qui sont sous votre responsabilité (cf introduction). Il faut donc vérifier que vous disposez des bonnes configurations des services et applications par rapport à vos souhaits et à vos directives internes de conformité. 

Compte tenu du nombre important d’états et de paramètres à contrôler, il est fortement recommandé d’automatiser la vérification de la conformité avec les “bonnes pratiques” de sécurité : ces audits de sécurité automatisés améliorent votre capacité à évoluer en toute sécurité, plus rapidement et à moindre coût. Vous êtes alors en mesure d’identifier l’origine de la faille de sécurité et de la corriger rapidement. 

Préparez-vous aux incidents et brèches de sécurité: par exemple en ayant un processus de gestion des incidents avec différents scénarios selon leur criticité correspondant aux exigences de votre organisation. Exécutez des simulations de réponse aux incidents et utilisez des outils pour augmenter votre vitesse de détection, d’investigation et de récupération.

En complément, l’outil AWS Config permet d’enregistrer et d’évaluer les configurations de vos ressources et leurs évolutions. Il est également possible de mettre en place une surveillance continue et une évaluation automatique. Ce service apporte un historique des modifications, une analyse de la sécurité ainsi qu’un diagnostic des défaillances opérationnelles.

SÉCURITÉ AWS #3 RESTREINDRE LES ACCÈS

L’erreur est humaine et, par conséquent, il est recommandé de limiter au maximum les accès aux données. Créez des mécanismes et des outils pour réduire ou éliminer le besoin d’un accès direct ou d’un traitement manuel des données. Cela réduit considérablement les risques de perte ou de modification et d’erreur humaine lors du traitement de données sensibles.

Selon les utilisations, il est pertinent que votre entreprise mette en service différents comptes AWS, ou différents Virtual Private Cloud pour cloisonner les données. Ce cloisonnement permet de définir de nouvelles configurations, telles que des options de connectivité différentes selon les sections concernées. De plus, cette segmentation permet de mettre en place des niveaux de sécurité variés selon la confidentialité et la sensibilité des données impliquées.

Chaque Virtual Private Cloud (VPC) peut être configuré selon vos souhaits : incluant des subnets public ou privé, avec ou sans accès à internet, avec une détermination des couches de sécurité, … 

Ces VPC peuvent être facilement reliés de façon robuste et sécurisée avec les réseaux ou datacenter on premise.

L’utilisation de multiples comptes AWS est également un moyen d’améliorer la sécurité, en donnant des droits particuliers aux administrateurs dans chacun des comptes, et en faisant par exemple en sorte que les traces (cf paragraphe #6) ne puissent être accédés et surtout purgées que par un nombre très restreint de personnes.

SÉCURITÉ AWS #4 GÉRER LES IDENTITÉS D’ACCÈS AU CLOUD ET AUX APPLICATIONS

AWS permet de mettre en place des règles strictes et robustes concernant la gestion des identités :

Appliquez le principe de droits minimum et suffisants,

Imposez la séparation de la réalisation des tâches avec l’autorisation appropriée pour chaque interaction avec vos ressources AWS, 

Centralisez la gestion des autorisations,

Réduisez et, si possible, éliminez la dépendance vis-à-vis des informations d’identification à long terme.

Lors du déploiement d’une architecture sur AWS, votre entreprise doit chercher à optimiser la sécurité des données en contrôlant ses accès. En effet, des droits différents sont à établir selon plusieurs catégories d’utilisateurs. Tous n’ayant pas les mêmes besoins, ils ne doivent pas avoir les mêmes accès à l’infrastructure. 

Les fonctionnalités d’AWS Identity and Access Management (IAM) permettent de restreindre les accès pour différents groupes. Certaines personnes ont uniquement besoin d’autorisations de lecture. D’autres doivent pouvoir déployer des machines virtuelles ou d’accéder à des fonctionnalités avancées. Les applications ont également besoin d’avoir des droits pour accéder aux données.  IAM permet également de déléguer l’authentification à un annuaire d’entreprise de façon à consolider la gestion des autorisations, et limiter mécaniquement les risques d’inconsistance et d’erreur.

Par ailleurs, AWS Cognito permet de gérer de façon industrielle les utilisateurs des applications mobiles. Et AWS propose aussi une implémentation managée des annuaires standards de l’industrie.

Avec une migration vers le cloud AWS, il est possible d’octroyer des identités selon chaque utilisateur ou application afin de maintenir un niveau de sécurité maximal.

SÉCURITÉ AWS #5 CHIFFRER LES DONNÉES ET MAÎTRISER LES CLÉS DE CHIFFREMENT

Il est indispensable de protéger les données en transit et au repos : après avoir classé vos données en fonction de leur confidentialité, il est nécessaire de mettre en oeuvre les mécanismes tels que le chiffrement, la tokenisation et le contrôle d’accès, le cas échéant.

Pour optimiser la sécurité des données du cloud AWS, il est impératif de mettre en place une gestion des clés en conformité avec les besoins ou la réglementation. Les bonnes pratiques intègrent notamment la détermination de la rotation des clés, la restriction des utilisateurs y ayant accès et une veille de leur utilisation.

Le service AWS Key Management Service (KMS) permet de créer et de gérer les clés. Il est totalement géré, vous permettant de vous attacher au chiffrement de vos données stockées. Vous pouvez facilement en faire une rotation automatique, les importer depuis votre propre infrastructure, déterminer les conditions d’utilisation ou encore suivre leur activité. Les clés ne peuvent en aucun cas être récupérées en texte simple pour en garantir la totale sécurité. Elles peuvent être désactivées provisoirement ou supprimées selon les besoins.

Par la suite, ces clés permettent de chiffrer les données de 52 services AWS, parmi lesquels nous retrouvons évidemment les données des serveurs et des bases de données managées.

SÉCURITÉ AWS #6 TRACER L’ACTIVITÉ SUR LE CLOUD

Activez la traçabilité : surveillez, alertez et auditez les actions et les modifications apportées à votre environnement en temps réel. Intégrez les métriques aux systèmes pour répondre et prendre des mesures automatiquement.

Pour protéger votre cloud AWS, il est important d’établir un suivi de l’activité des utilisateurs et de l’usage des applications. La gestion des risques ainsi que les garanties de conformité sont des missions centrales pour l’ensemble de votre réseau. Il est nécessaire de pouvoir détecter les menaces sur la sécurité de votre infrastructure en identifiant les vulnérabilités.

AWS CloudTrail est le service de suivi en continu des actions réalisées sur votre infrastructure. Il présente un historique des événements de votre compte AWS, ce qui va simplifier les audits de conformité. L’ensemble de l’activité est enregistré permettant d’identifier les problèmes dans l’historique des modifications. Avec Amazon CloudWatch Events, la détection des fragilités est facilitée avec l’aide de workflows.

SÉCURITÉ AWS #7 DÉTECTER LES MENACES & SÉCURITÉ DES APPLICATIONS

La détection des menaces est une démarche de prévention permettant de réagir rapidement à des actions hostiles externes, et de mettre en place des contre-mesures rendant des actions inopérantes.

Cette détection doit couvrir le périmètre technique et aussi les applications qui sont également concernées par l’exposition de failles.

AWS propose 5 services permettant de mettre en place des mécanismes de prévention, dont le point commun est de nécessiter un temps de mise en oeuvre extrêmement réduit. Ceci a été rendu possible notamment par la mise en place de l’algorithme de machine learning couplé avec un flux de veille pour identifier les signatures d’attaques infrastructure (AWS GuardDuty) ou applicatives (AWS Inspector), ou pour l’identification des objets contenant des données soumises à une réglementation particulière (AWS Macie). En complément, AWS WAF permet de restreindre les accès aux applications en appliquant un filtrage qui leur sont spécifique et AWS Shield protège des attaques DDOS.

FAITES VOUS ACCOMPAGNER PAR DES EXPERTS AWS !

La sécurité est un sujet complexe et ne doit pas être pris à la légère, il est souvent nécessaire de se faire accompagner par des structures dont cela est le métier et le domaine d’expertise. 

Avec ces 7 conseils décisifs, vous êtes en mesure d’améliorer efficacement la sécurité des données de votre cloud AWS. N’omettez pas, cependant, d’inscrire ces activités dans une pratique et une mise à jour régulière de long terme pour capitaliser pleinement sur tous leurs bénéfices. 

Ressources : 

Article AWS = Qu’est-ce que le cloud computing ?

Premaccess  = Contactez notre équipe de consultants sécurité

Développement  = Découvrir notre accompagnement pour vos développements SaaS ou Logiciel

La migration AWS d’une entreprise s’impose comme une évolution indispensable et peut s’apparenter à un long voyage. C’est un processus qui paraît long et complexe, mais aujourd’hui quels sont les facteurs les plus déterminants. Comment faciliter la transition d’une entreprise vers le Cloud ? Soyez prêts pour la grande migration.

Migration AWS #1 : Visualiser le panorama

Parmi les différents services cloud proposés par le marché, on remarque que les principales utilisations sont l’hébergement de sites web, le stockage et la récupération de données, sans oublier l’analyse des données pour optimiser le pilotage des activités de l’entreprise.

Le cloud est aujourd’hui un outil essentiel dans la digitalisation des entreprises, qui facilite et diminue les coûts de cette transformation. Les nombreux avantages de ces services représentent une véritable opportunité pour les entreprises de plus en plus enclines à l’adopter.

Migration AWS #2 : Entrer dans un nouveau monde

Dans un monde où le cloud est privilégié, de nouvelles compétences sont indispensables. Il est important de souligner que 81 % des entreprises françaises (89% au plan mondial) ayant complété leur migration vers un modèle « cloud first » ont déclaré que leur équipe n’est pas en mesure de répondre au besoin d’une migration Cloud et ne dispose pas des compétences requises pour assurer une réussite. Par ailleurs une grande majorité des personnes interrogées (92% en France et 88% à l’échelle mondiale) pensent que le cloud pourrait être, de façon partielle, un service informatique à part entière.

Si aujourd’hui les entreprises utilisent des services d’hébergement et de cloud, c’est qu’un large éventail de fournisseurs répondent à leurs besoins. Les fournisseurs d’infrastructure de Clouds publics, qui sont utilisés par 69% des répondants, sont les plus courants, suivis par les fournisseurs d’hébergement gérés, utilisés par 26% des entreprises.

Migration AWS #3 : Envisager la phase de Build

Beaucoup d’entreprises pensent que migrer dans le Cloud consiste à simplement translater son système d’informations existant vers le Cloud. Pour des raisons de performances, d’expérience utilisateur, mais surtout pour des raisons de coûts, il est crucial de repenser son architecture et ses process. Il est donc primordial avant de basculer, de réaliser une étude d’architecture que l’on qualifie souvent de “Build”.

Cette phase préalable a pour objectif d’optimiser le retour sur investissement de la solution Cloud. Elle consiste aussi à casser les éventuels silos applicatifs et à évaluer l’impact sur l’exploitation. La phase de Build doit être suivie d’une étude financière afin d’évaluer le budget et coûts récurrents.

Migration AWS #4 : Garantir la continuité du business

Dans un second temps il est important de définir les contraintes liées à la continuité du business pendant la phase de migration.  
Est-il envisageable d’éteindre le système d’informations existant puis de se connecter sur le Cloud ?
Ou doit-on maintenir l’activité durant la phase de migration AWS ?

Suivant les contraintes liées au business, différentes méthodologies de migration devront être envisagées.

“Notion de lift and shift”

Migration AWS #6 : Maîtriser sa phase de Run

Pour maîtriser sa phase de run, l’ensemble des procédures d’exploitation devront être réécrites.

Les équipes d’administrations devront préalablement avoir été formé aux nouvelles pratiques du Cloud.

Et de nouveaux outils devront être déployés pour offrir une visibilité sur les performances la sécurité et la disponibilité de chaque élément dans le Cloud, de manière à garantir le maintien en condition opérationnelle de l’ensemble.

Migration AWS #7 : Faire confiance aux experts DevOps / Developpeurs

Plus que de l’expertise, c’est de la méthode: être accompagné par un prestataire dont l’expérience est reconnue est un gage de réussite pour son projet de migration AWS.

Le partenaire va accompagner la conduite du changement, définir les phases de Build et de Run, et surtout réaliser le transfert de compétences vers les équipes d’exploitations. Ou proposer un contrat d’infogérance avec les niveaux de services attendus.

Migration AWS #8 : Les différents Régions disponibles

Les Cloud Providers sont d’importantes centres de ressources disponibles partout dans le monde.
Les ressources sont accessibles de façon flexible. Le client peut facilement augmenter ou diminuer la capacité disponible pour ses données dont il dispose selon ses besoins.

Les Cloud Providers ont donc plusieurs centres dans des Régions différentes pour la gestion de vos serveurs, données, ressources et autres logiciels d’entreprise.
Il vous faudra choisir la région la plus proches de vos besoins et qui rassemble les services dont vous avez besoins.
Attention : Certaines régions n’ont pas tous les services disponibles au catalogue.

Migration AWS #9 : Pourquoi sauvegarder dans le Cloud ?

La mise en place d’une sauvegarde dématérialisée répond à certaines problématiques concernant le Cloud. Exploiter la puissance de solutions de sauvegardes distantes pour y proposer des services de sauvegardes avec une optimisation maximum de la sécurité.

Son plus grand avantage est qu’il offre une grande flexibilité. Les solutions sont louées à la demande grâce notamment au mode de sauvegarde. Ils ne nécessitent généralement aucun investissement en matériel, la mise en place est rapide et la facturation se fait à l’usage.

Le cloud assure également la confidentialité des données  qui sont hébergées, même les plus sensibles. Confier à un hébergeur professionnel ou un prestataire pour sauvegarder ses données sur un site tiers est un gage de sécurité important pour anticiper tous risques.

Migration AWS #10 : Les nouveaux usages

Aujourd’hui le besoin d’accélérer et d’industrialiser les processus représente une impacte direct des nouvelles tendances de communication. Le travail d’équipe est mis en avant en créant des pools de compétences afin accélérer les enjeux digitaux.

Le processus consiste à mieux cibler les données de référence pour déployer un langage commun. Une optimisation de la lecture des données en amont facilite et accélère la mise en place d’un projet.

La gouvernance des données est aujourd’hui indispensable à toute optimisation du système d’information.

se doter d’outils efficaces en phase avec les enjeux critiques du digital.

Cette tendance constitue le défi majeur des entreprises en 2017.  De nombreuses équipes ont ainsi échoué parce qu’elles ne pouvaient rattacher leurs tests métiers au Core IT.

Contactez ici nos experts en migration AWS.

Ressource : 

Services et produits AWS = Découvrir les produits

Premaccess = Contactez notre équipe d’experts pour vos Services Managés Cloud

Développement  = Découvrir notre accompagnement pour vos développements SaaS ou Logiciel

Visualiser le panorama

Parmi les différents services cloud proposés par le marché, on remarque que les principales utilisations sont l’hébergement de sites web, le stockage et la récupération de données, sans oublier l’analyse des données pour optimiser le pilotage des activités de l’entreprise.
Le cloud est aujourd’hui un outil essentiel dans la digitalisation des entreprises, qui facilite et diminue les coûts de cette transformation. Les nombreux avantages de ces services représentent une véritable opportunité pour les entreprises de plus en plus enclines à l’adopter.

Entrer dans un nouveau monde

Dans un monde où le cloud est privilégié, de nouvelles compétences sont indispensables. Il est important de souligner que 81 % des entreprises françaises (89% au plan mondial) ayant complété leur migration vers un modèle « cloud first » ont déclaré que leur équipe n’est pas en mesure de répondre au besoin d’une migration Cloud et ne dispose pas des compétences requises pour assurer une réussite. Par ailleurs une grande majorité des personnes interrogées (92% en France et 88% à l’échelle mondiale) pensent que le cloud pourrait être, de façon partielle, un service informatique à part entière.
Si aujourd’hui les entreprises utilisent des services d’hébergement et de cloud, c’est qu’un large éventail de fournisseurs répondent à leurs besoins. Les fournisseurs d’infrastructure de Clouds publics, qui sont utilisés par 69% des répondants, sont les plus courants, suivis par les fournisseurs d’hébergement gérés, utilisés par 26% des entreprises.

Envisager la phase de Build

Beaucoup d’entreprises pensent que migrer dans le Cloud consiste à simplement translater son système d’informations existant vers le Cloud. Pour des raisons de performances, d’expérience utilisateur, mais surtout pour des raisons de coûts, il est crucial de repenser son architecture et ses process. Il est donc primordial avant de basculer, de réaliser une étude d’architecture que l’on qualifie souvent de “Build”.
Cette phase préalable a pour objectif d’optimiser le retour sur investissement de la solution Cloud. Elle consiste aussi à casser les éventuels silos applicatifs et à évaluer l’impact sur l’exploitation. La phase de Build doit être suivie d’une étude financière afin d’évaluer le budget et coûts récurrents.

Amazon Web Services, Microsoft, IBM, Google ou encore OVH, tous proposent désormais des solutions SaaS, PaaS, IaaS et DaaS à des tarifs annoncés ultra compétitif et avec des fonctionnalités ultra alléchantes…Mais comment garder les pieds sur terre et passer du rêve à la réalité ?

Avant de vous expliquer pourquoi Amazon Web Services reste incontestablement le leader des services Cloud, laissez nous vous poser cette simple question : Quel est le point commun entre Instagram, Netflix et la NASA ?

Réponse : Ils sont tous chez AWS !

Depuis maintenant plus de 10 ans, Amazon peaufine sa gamme de services Cloud pour vous permettre d’innover sans aucune contrainte de stockage, de calcul et de sécurité.

Bienvenu dans le monde de l’innovation by AWS !

Les pieds sur terre, la tête dans les nuages

Puissant et ambitieux, AWS conserve 45% de part de marché sur le Cloud public pendant que Google, IBM  réunis n’atteignent pas ce résultat. Dans un secteur où personne n’évoquait AWS, il y a quelques temps, il est aujourd’hui la locomotive d’Amazon et engrange la plus grosse partie des profits.

Le nouveau service a enregistré une augmentation de ses profits et chiffre d’affaires, seulement en 2 ans et sans interruption. Au troisième trimestre 2015, Amazon Web Services représentait 521 millions de dollars. En seulement un an, une progression impressionnante fut réalisée, démontrant la puissance et la présence du nouveau service.

Service dynamique pour marché dynamique

Le Cloud est un marché complexe et en pleine expansion. S’adressant à deux types de clients, les particuliers et les entreprises, ils hébergent leurs données sur des serveurs appartenant à une société tierce, soit sur Dropbox ou sur AWS. Le PaaS (Platform as a Service) et le IaaS (Infrastructure as a Service) sont les services où se positionne Amazon Web Services.

En 2018, 40 milliards de dollars représentent la somme que devrait dépasser les dépenses en plateforme et infrastructure dans le Cloud, d’après des estimations de Goldman Sachs, ce qui représente 4 fois plus qu’en 2013. AWS reste le mieux placé pour répondre à cette demande en occupant 28% du marché, devant Microsoft ou IBM en 2014, d’après l’institut Synergy Research.

En première ligne sur la technologie

Amazon Web Services n’a pas eu de complexe à afficher sa confiance et son ambition concernant l’avenir. La communication du groupe s’est concentré à renforcer l’image de leader. Malgré l’inquiétude concernant la Chine et l’avancée des acteurs locaux, la part de marché d’AWS augmentent rapidement.

Là où réside la force d’AWS, c’est que les grosses compagnies tentent de copier le travail construit par le groupe Amazon. Ces acteurs sont très différents, proposent moins de services, moins de fonctionnalités.

La société AWS conserve cette volonté d’innover et de faire perdurer son ADN. Elle ouvre sa solution aux grands éditeurs du marché pour devenir la référence en terme de MarketPlace. VMware, leader de la virtualisation ayant lui même décidé de poursuivre le développement de son vCloud sur AWS.

L’avenir du Cloud se dessine

AWS se présente comme l’alternative la plus sûre pour le futur du Cloud. Certainement renforcé à l’avenir par la démocratisation du Cloud Hybride. La bataille concernant le PaaS et le IaaS risque d’être remporté par le géant AWS qui compte bien innover davantage et répondre aux besoins chaque jour plus complexe de ses clients.

Amazon Web Services est en passe de devenir l’acteur majeur concernant le marché du Cloud.

Ressource : 

Article AWSComment fonctionne le cloud computing?

Services et produits AWS = Découvrir les produits

Premaccess  = Contactez notre équipe d’experts pour vos Services Managés Cloud

Développement  = Découvrir notre accompagnement pour vos développements SaaS ou Logiciel