Lorsque vous stockez des objets dans le AWS S3, vous ne payez pas seulement pour l’objet stocké, mais vous accédez généralement à ces objets d’une certaine manière.

Si votre compte AWS est relativement récent (moins de 12 mois), vous pourrez probablement bénéficier du volet gratuit. Cela signifie 5 Go de stockage gratuit + 20 000 demandes GET et 2 000 demandes PUT. N’oubliez pas que cette offre expire au bout de 12 mois à compter de la création du compte.

Nous avons donc 3 éléments dans notre facture pour réduire votre facture AWS S3.

Stockage : Selon le type de stockage que vous choisissez pour votre Bucket, c’est le prix que vous payez par Go de données stockées. Vous avez 3 types, Standard, Standard-IA (accès peu fréquent) et Glacier et le prix varie en fonction de la région où votre bucket est créé.

Demandes : Il s’agit essentiellement du nombre d’appels effectués à l’API S3 pour récupérer les objets. Le prix dépend du type de requête (les requêtes DELETE sont gratuites), de la région et du type de stockage.

Vous pourriez également voir sur votre facture des choses comme :

  • Amazon Simple Storage Service EU-Requests-Tier1 : Il s’agit des demandes PUT, COPY, POST, ou LIST.
  • Amazon Simple Storage Service EU-Requests-Tier2 (Service de stockage simple Amazon EU-Requests-Tier2) : Ceci est pour les demandes GET et toutes les autres demandes.
  • Amazon Simple Storage Service EU-Requests-Tier3 (Service de stockage simple Amazon EU-Requests-Tier3) : Il s’agit des demandes concernant les glaciers.
  • Amazon Simple Storage Service EU-Requests-Tier4 : Il s’agit du nombre de transitions vers l’accès standard peu fréquent que vous avez demandé.

Transfert de données : Ceci est mesuré en entrée (IN) et en sortie (OUT). La bonne chose est que les données IN sont gratuites. Le transfert OUT dépend de l’endroit et de la manière dont vous envoyez les données. Si vous transférez des données à une autre instance EC2 dans la même région, c’est gratuit. N’oubliez pas d’utiliser les terminaux VPC S3 pour économiser encore plus d’argent.

Vous avez la liste des prix sur le site Amazon S3 ici, attention, elle change très souvent.

Maintenant, comment puis-je mesurer en temps réel combien j’utilise AWS S3 ?

Avec la nouvelle console de gestion S3 (vous devez l’activer dans votre compte AWS), vous avez la liste des buckets.

Reduire facture S3 AWS, selectionnez votre bucket

Lorsque vous sélectionnez l’un d’entre eux, choisissez l’onglet Gestion (Management) en haut de la page.

Reduire facture S3 AWS, Allez dans Management Tab

Reduire facture S3 AWS, Cliquez sur Metrics

Ensuite, choisissez Métriques (Metrics)

Ici, vous pourrez choisir entre Stockage (Storage), Demandes (Requests) ou Transfert de données (Data Transfer). Il convient de préciser que la mesure de stockage est la seule qui soit Gratuite.

Je vous recommande vivement de garder un œil sur vos factures AWS et d’analyser celle-ci via l’outil Cost Explorer, vous trouverez de nombreuses façons d’économiser de l’argent et de recevoir les félicitations de votre patron 😉 !

#FinOps Addict 🙂 AWS Cost Killing

Aller plus loin : 

Article Premaccess = FinOps : comment réduire les couts sur AWS ?

Premaccess  = découvrir notre accompagnement avec notre équipe consulting

La santé est un sujet qui nous passionne depuis longtemps chez premaccess et qui, aujourd’hui plus que jamais prend tout son sens. L’humanité dispose aujourd’hui des outils les plus puissants pour répondre aux problématiques qui se posent à nous et pourtant nous sommes vulnérables. 

Alors pour changer un peu d’angle, nous avons concocté une petite liste des innovations que l’on suit de près, car pour nous elles sont représentatives du monde de demain, de celui que l’on veut construire avec vous. Et quand la technologie est un vecteur de sens, ca nous plait ! 

Certaines solutions semblent parfois sorties d’un film de science fiction et pourtant. Il s’agit bel et bien de solutions concrètes  que l’on peut dès aujourd’hui utiliser ou en cours de développement. 

Si vous voulez un peu plus d’informations sur le fond quand on parle d’Intelligence Artificielle ou de Machine Learning, vous pouvez vous référez à notre article AI et ML la vision de premaccess des services proposés par AWS ici.

Reste aujourd’hui les questions suivantes que nous souhaiterions résoudre avec vous : 

  • Comment généraliser ces procédés ? 
  • Les faire changer d’échelle et rendre ces technologies accessibles aux plus grands nombres ? 

Vous avez d’autres exemples ? Partagez les avec nous ! 

Médecine et technologies : Intelligence artificielle, robotique, blockchain au service du bien commun

  1. Des nouvelles molécules chimiques pour la recherche médicamenteuse

@Iktos utilise un #algorithme pour imaginer de nouvelles molécules chimiques efficaces dans le cadre de la recherche médicamenteuse, sa technologie explore #virtuellement l’univers quasi infini de la chimie pour imaginer des nouvelles molécules de #synthèse et prédire leur efficacité.

https://www.lesechos.fr/industrie-services/pharmacie-sante/medicaments-du-futur-iktos-explore-lespace-chimique-grace-a-lia-1182596

  1. Dépistage des maladies du cœur : mesurer instantanément et avec précision le flux sanguin

En comparant les résultats générés par l’#AI avec les dossiers de santé de chaque patient, l’équipe a constaté que les patients dont le flux sanguin était réduit étaient plus à risque de décéder des suites d’une crise cardiaque, d’un #AVC et d’une insuffisance cardiaque.

L’outil s’est révélé pour la première fois capable de prédire quels patients pourraient mourir ou subir des événements indésirables majeurs au niveau cardiovasculaire, mieux qu’un médecin ne pourrait le faire seul avec des approches traditionnelles.👏

https://www.santemagazine.fr/actualites/actualites-sante/lintelligence-artificielle-peut-aider-a-predire-le-risque-de-crises-cardiaques-et-davc-432130

  1. Prédire la probabilité d’événements d’un choc hémorragique ou d’un traumatisme crânien

L’objectif est de développer des modèles de prédiction et d’élaborer, à terme, une plateforme de services.

Le projet va s’appuyer sur les ressources du registre #Traumabase, nourri par un réseau d’une centaine de médecins urgentistes et anesthésistes-réanimateurs dans toute la France.

Et qui regroupe les données d’hospitalisations et de rémissions de 20 000 admissions pour traumatisme grave en France.

À terme, l’outil #développé et qui utilise l’intelligence artificielle permettra de prédire la probabilité d’événements d’un choc hémorragique ou encore d’un traumatisme crânien, mais aussi d’ajuster la stratégie de soins. 

https://www.lesechos.fr/partenaires/capgemini/e-sante-la-data-et-lia-au-secours-des-patients-atteints-de-traumatismes-graves-1168623

  1. Prédire la progression des maladies neurodégénératives pour mieux prévoir l’évolution des maladies comme la maladie d’Alzheimer

L’#algorithme a été en mesure de détecter les différentes expressions des gènes de ces patients sur des dizaines d’années avec l’analyse des échantillons de sang et de tissus cérébraux post-mortem de 1 969 patients et avec l’aide d’un algorithme d’AI et des techniques de #deeplearning.

https://www.santemagazine.fr/actualites/actualites-sante/une-analyse-sanguine-par-ia-peut-predire-la-progression-des-maladies-neurodegeneratives-431793

  1. Améliorer l’efficacité de l’imagerie médicale et optimiser les flux de patients

Avec comme objectif de raccourcir la durée des examens et à optimiser les flux de patients, tout en assurant une qualité homogène des soins et permet de gérer et d’assurer la maintenance à distance des parcs de scanner, d’IRM ou autres…  

Encore un beau progrès #Healhtech 👏

https://www.lesechos.fr/industrie-services/pharmacie-sante/limagerie-medicale-a-lheure-de-lintelligence-artificielle-1156756

  1. Améliorer la qualité des dossiers médicaux en permettant  aux  professionnels de santé de dicter directement dans le cloud

Avec Dragon Medical One, les médecins, les infirmières peuvent désormais documenter les dossiers des patients en mobilité, depuis leur cabinet, à domicile à l’hôpital avec un taux de #disponibilité garanti de 99,5 %.

https://www.hospitalia.fr/Les-professionnels-de-sante-peuvent-dicter-dans-le-Cloud-en-toute-securite-avec-Dragon-Medical-One_a2026.html

  1. Améliorer la confiance, la sécurité et l’auditabilité des données médicales

La technologie blockchain répondrait aux problématiques de confiance, de sécurité et d’auditabilité de ces données, complétant ainsi les offres d’#IA et d’#IoT basées sur ces mêmes données.

Acumen indiquait dans une étude que le marché mondial de la blockchain dans le secteur de la santé devrait croître de 48,1% d’ici 2026 et atteindre plus de 1,7 milliard de dollars.

https://cryptonaute.fr/blockchain-remede-ideal-donnees-de-sante/

  1. Connecter notre cerveau à une machine 

La réponse est oui, après @Neuralink en Juillet sur les rats, Elon Musk envisage les premiers essais humains de son interface #transhumaniste à partir de la fin 2020.

Grâce à un faisceau de « cordons cérébraux » reliés à nos neurones, nous augmenterions nos capacités intellectuelles et serions même capables de contrôler l’#IA afin qu’elle ne finisse pas par prendre le dessus !

Une recherche impressionnante ! 😱

https://www.sciencesetavenir.fr/sante/cerveau-et-psy/l-ia-et-l-humanite-cerveau-pourrons-nous-connecter-notre-cerveau-a-une-machine_137653

  1. Se faire opérer sans présence d’un médecin 

C’est tout fait possible technologiquement parlant. Vous êtes nombreux à comprendre et se dire que la technologie, l’ #intelligenceartificielle ont pu être une grande opportunité de progrès pour leur santé.

Le chemin risque d’être long et compliqué pour développer cette méthode car en France, 78% des patients interrogés n’accepterait pas des diagnostics ou actes de soins entièrement automatisés, sans contrôle humain.

https://www.sciencesetavenir.fr/sante/e-sante/capteurs-connectes-intelligence-artificielle-pas-sans-medecin-disent-les-patients-etude_134531?utm_source=sociabbleapp&utm_medium=social&utm_campaign=none&utm_term=NVqCBfGjVi&socid=NVqCBfGjVi

  1. Détecter le cancer du poumon

Le cancer du poumon est le cancer qui entraîne le plus de mortalité dans le monde. Chaque année, 1,7 million de personnes en décèdent selon les chiffres de l’Organisation Mondiale de la Santé (OMS). Une fois détecté, le pronostic vital est souvent engagé, d’où l’importance de le dépister le plus tôt possible. Pour gagner en précision et en rapidité, l’intelligence artificielle est de plus en plus utilisée dans le domaine de la radiologie. Google a mis au point une IA qui permet de détecter le cancer le plus tôt possible.

https://www.sciencesetavenir.fr/sante/cancer/google-a-lance-une-ia-pour-detecter-le-cancer-du-poumon_134208

  1. Détecter les attaques cardiaques au son de la voix 

Révolution en vue dans les centres d’appel d’urgence !

La technologie de l’#AI fonctionne en arrière-plan des appels d’urgence entrants et capte les mots clés, la langue et les schémas sonores de l’appelant, susceptibles d’indiquer que le patient est en train de faire une attaque cardiaque. Et si l’AI la détecte, une ambulance prioritaire est envoyée.

L’État de Victoria en Australie a annoncé qu’il allait injecter 800.000 euros pour poursuivre le projet.

Bel investissement du gouvernement Australien ! 👏

https://www.zdnet.com/article/victoria-to-use-ai-to-detect-heart-attacks-on-emergency-calls/

  1.  Collecter plus d’informations par le biais d’un chatbot 

Le but de la mise en place de Jeanne (Oui le #chatbot s’appelle Jeanne) est d’obtenir le plus d’informations en amont pour que le rendez-vous avec le spécialiste soit le plus efficace dès qu’il a lieu.

Grâce à cela, nous pourrons utiliser au mieux les ressources médicales mais aussi améliorer la personnalisation de l’expérience.

https://www.whatsupdoc-lemag.fr/article/les-patients-acceptent-de-se-livrer-facilement-et-plus-rapidement-avec-des-chatbots

  1. Prélever du sang avec une très grande précision

Des chercheurs américains ont conçu un #prototype de robot capable de trouver et percer une veine de manière précise pour éviter ces inconvénients.

Avec un taux de réussite global de 87% pour les 31 participants dont le sang a été prélevé. Et, pour les 25 personnes dont les veines étaient faciles d’accès, le taux est monté à 97%. A titre de comparaison, les professionnels de santé ont un taux de réussite de 73% chez les patients sans veines visibles et 60% pour les personnes sans veines palpables.

https://www.usine-digitale.fr/article/ce-robot-est-capable-de-prelever-du-sang-avec-une-tres-grande-precision.N927914

Conclusion ; Vous avez des sujets en Intelligence Artificielle, Machine Learning ? Les équipes de premaccess sont à votre disposition pour vous conseiller.

Aller plus loin : 

Article Premaccess = L’intelligence artificielle IA craintes ou opportunites ?

Premaccess  = découvrir notre accompagnement avec notre équipe consulting

Confinement oblige, de nombreuses entreprises ont désormais recours au télétravail. Mais dans l’urgence de la crise du Covid-19, avez-vous tout mis en oeuvre pour optimiser le travail de vos collaborateurs et protéger les données de votre organisation ? 

Mal préparé, vous risquez d’augmenter vos risques face à la cyber malveillance. Ces attaques peuvent prendre plusieurs formes. Il peut s’agir de :

  • Phishing (hameçonnage) : vol de données confidentielles (mot de passe, informations bancaires, etc.)
  • Ransomware : attaque avec un logiciel informatique malveillant prenant en otage les données d’une organisation. Le ransomware chiffre et bloque l’ensemble des fichiers de l’entreprise. Suite à cette attaque, le hacker demande alors une rançon en échange d’une clé permettant de les déchiffrer à nouveau.
  • Vol de données directement sur le réseau d’entreprise suite à une introduction malveillante.
  • Faux ordre de virement (FOVI) : via cette escroquerie – parfois appelée « escroquerie au président » – les malfaiteurs incitent, par la tromperie, des employés d’une société à leur transférer de l’argent en se faisant passer pour le dirigeant. 

Lors de l’appel au confinement total en France, le 17 mars dernier, le niveau de préparation au télétravail était très variable d’une entreprise à une autre. Aussi, pour vous aider à préserver votre système d’information de toute cyberattaque, voici plusieurs conseils. Ils sont à destination tant des employeurs que des télétravailleurs.

Employeurs, pensez VPN et sauvegardes

  1. En premier lieu, déployez, autant que possible auprès de vos collaborateurs, du matériel interne sécurisé. Lors de cette période de confinement, tous peuvent être amenés à travailler avec leur équipement personnel. Or, rien ne nous garantit le niveau de sécurité de ces outils destinés d’ordinaire à des fins personnelles (réseaux sociaux, streaming, etc.).
  1. Limitez l’accès à vos données vers l’extérieur : pour cela, accordez cet accès à un nombre restreint de collaborateurs ou services indispensables.
  1. Utilisez un VPN (Virtual Private Network ou « réseau privé virtuel ») pour permettre à vos salariés d’accéder à votre infrastructure depuis l’extérieur. Un VPN chiffre les connexions externes, et renforce la sécurité de votre système en n’autorisant l’accès qu’aux équipements authentifiés. 
  1. Pensez à mettre à jour régulièrement vos équipements fixes et mobiles mis à disposition de vos salariés. Ces mises à jour sont nécessaires, voire indispensables, car, en leur absence, les hackers peuvent accéder à vos données via des failles de sécurité.
  1. Effectuez régulièrement deux sauvegardes de l’ensemble de vos données : d’abord sur un hébergement externe (Cloud), puis en second temps sur un support déconnecté de votre réseau (type disque dur externe protégé d’un mot de passe).
  1. Dotez vos équipements d’antivirus professionnels. Il en existe plusieurs (Bitdefender, Avast Business, etc.). En fonction de votre parc informatique, il doit être capable de prendre en charge les environnements Windows ou Linux, ou bien les deux. Il doit être sans cesse à jour des menaces existantes, et proposer une protection contre les menaces les plus récurrentes (virus, cryptomining…).
  1. Surveillez l’activité liée aux accès externes à votre système. Et ce, afin de détecter toutes activités anormales et toutes connexions suspectes qui pourraient être signe de cyberattaque.

Salariés, voici comment maximiser vos conditions de télétravail

  1. Optimisez la diffusion du réseau Wifi dans votre domicile. Pour cela, l’Arcep (Autorité de régulation des communications) recommande de placer votre box dans une pièce centrale de votre habitation, dans un endroit dégagé, et d’éviter de poser à proximité tous autres équipements sans fil (type téléphone).
  1. Si vous disposez de la fibre, sur votre box, vous pouvez dédier un réseau Wifi à votre poste de travail. En effet, les box utilisées avec la fibre disposent de deux réseaux Wifi indépendants. Selon l’Arcep, vous pouvez en dédier un pour le VPN de votre employeur, et le second pour les loisirs de votre famille. Ainsi, vous ne subirez pas un ralentissement de réseau si l’un de vos enfants lance de la vidéo en streaming pendant que vous travaillez. 

  1. Autre solution si le réseau Wifi ralentit car vous êtes nombreux à y être connectés à votre domicile : branchez votre ordinateur à la box grâce à un câble Ethernet.
  1. Côté sécurité, avant de vous connecter à des données sensibles de votre entreprise, pensez à vérifier que votre accès Wifi est sécurisé d’un mot de passe fort, comprenant majuscules, minuscules, chiffres et caractères spéciaux.
  1. Enfin, pour ne pas saturer le VPN de votre entreprise, optez pour les outils collaboratifs pour travailler à distance avec vos collègues. Des plateformes comme Office 365 ou G Suite vous permettent de travailler à plusieurs sur tout type de document (Word, Excel, PowerPoint, etc.), de communiquer aisément par tchat ou vidéo (Hangout ou Teams), et de partager des documents (OneDrive ou Google Drive). En cette période d’intensification du télétravail, ces outils prouvent une fois de plus leur intérêt et leur efficacité : 
  • ils nous permettent de maintenir une certaine productivité durant le confinement, 
  • ils assurent un niveau d’information commun entre chaque collaborateur, 
  • et ils réduisent les temps d’échanges et de réunions inutiles.

Télétravail et cybersécurité : l’après confinement

Une fois le confinement terminé, il est fort à parier que le télétravail gagnera du terrain dans les entreprises. Jusqu’à présent, contrairement à leurs homologues européens et anglo-saxons, les entreprises françaises réticentes au travail à distance étaient encore nombreuses.

En 2017, seuls 3% des Français avaient recours à cette pratique selon la Dares (Direction de l’animation de la recherche, des études et des statistiques). Ces télétravailleurs étaient majoritairement des cadres. 

Suite à cette crise sanitaire et économique, il est fort probable que de nombreux employeurs vont changer d’avis.

Chez premaccess, la cybersécurité et le travail collaboratif font partie de notre ADN. Si vous souhaitez être conseillé et accompagné sur ces sujets, n’hésitez pas à nous contacter

Quelle que soit la taille de votre société, la garantie de votre propriété intellectuelle est essentielle. Nos équipes mènent régulièrement des missions d’audit en cybersécurité au sein d’entreprises. Objectif : analyser vos process, les postes de travail, les mots de passe utilisés, etc. afin d’évaluer votre maturité en cybersécurité, mettre en place les outils utiles, et sécuriser toujours plus ce qui fait la force de votre structure, vos compétences et votre savoir-faire. 

Aller plus loin : 

Article Premaccess = Comment teletravailler efficacement et s’organiser en equipe en ces temps de confinement

Premaccess  = découvrir notre accompagnement avec notre équipe consulting

Les éditeurs d’applications SaaS le savent bien : les infrastructures fixes, appelées single-tenant, sont faciles à déployer mais ont leurs limites notamment en terme de maintenance. C’est pourquoi nous vous conseillons vivement de passer au multi-tenant. Nombre d’entre vous hésitent à franchir le pas.
Votre crainte : que les données de vos clients ne soient pas sécurisées.
Pourtant, sur AWS, cela est possible grâce à l’alliance de trois microservices : Cognito, IAM et DynamoDB. 

Après avoir expliqué ce qu’est une architecture multi-tenant, nous vous présentons comment utiliser ces trois services sur AWS pour la mettre en œuvre.

Qu’est-ce qu’une infrastructure multi-tenant ?

Avant d’aller plus loin, expliquons le terme « Tenant » : en anglais, il signifie « Locataire », « Client ». Chaque client rassemblant un « groupe d’utilisateurs ».

Modèle single-tenant

Dans une architecture single-tenant, une seule application est utilisée par plusieurs clients, mais chacun a sa propre version de l’application installée dans une instance dédiée. 

Ce modèle a plusieurs avantages :

  • Séparation franche entre chaque client, et donc entre chaque version de l’application.
  • Les données du client A ne sont pas mélangées avec celles du client B.
  • Chaque client possède sa propre base de données et son propre serveur d’application.

single-tenant : chaque client à sa propre infrastructure.

Mais, très vite, il peut être compliqué à administrer. En effet :

  • Plus les clients vont être nombreux, plus il est difficile de gérer les différentes versions de l’application sur chaque infrastructure.
  • Le coût fixe pour chaque infrastructure peut être pénalisant pour les clients à faible trafic.
  • À partir de 100 clients, il est impératif d’automatiser la gestion des infrastructures, notamment avec des solutions comme BAM*.
  • À partir de 1 000 clients, ce n’est pratiquement plus gérable.

Modèle multi-tenant

À la différence, dans une architecture multi-tenant, une seule instance d’application va servir à plusieurs clients. Les ressources (et notamment les bases de données) y sont mutualisées. 

multi-tenant : une infrastructure pour plusieurs clients.

Avec une seule infrastructure globale, au lieu d’une par client :

  • Il est plus facile d’en assurer la maintenance : lorsqu’une modification est apportée à un fichier, elle profite à tous les clients. Les mises à jour sont plus simples à assurer.
  • Vous réduisez vos coûts d’utilisation sur le cloud.
  • Les temps de réponse sont bien plus rapides.
  • La gestion des clients est simplifiée, qu’ils soient au nombre de 10 ou 10 000. 

En contrepartie, comme les données des clients sont mélangées, il faut que le logiciel soit développé pour séparer de manière logique les données des clients. Nous verrons plus loin que les technologies intégrées à AWS permettent de résoudre cette difficulté facilement. 

Modèle hybride

Il existe aussi une approche hybride qui permet d’optimiser son infrastructure sans avoir à faire beaucoup de modifications dans son application.

Approche hybride : mutualisation de l’application avec plusieurs bases de données dans la même instance.

Dans une approche hybride, seule l’application est mutualisée. Dans ce cas, chaque client dispose d’une base de données dédiée dans la même instance, ainsi que d’un login et d’un mot de passe.  Cette solution a l’avantage d’être facile à mettre en œuvre tout en commençant à faire des économies d’échelles sur les coûts d’infrastructures.

Comment faire du multi-tenant avec AWS ?

Lors de la création d’une architecture multi-tenant, l’enjeu crucial est, bien sûr, de sécuriser les datas afin qu’elles ne soient pas accessibles par tous.

Les développeurs d’applications SaaS doivent être en mesure d’identifier un utilisateur, de relier une donnée à son locataire, mais également un utilisateur à son locataire, et de savoir quels droits ont été concédés à tel ou tel user. 

Pour cela, sur le cloud d’AWS, nous vous conseillons d’associer les services DynamoDB, Cognito et IAM.

Organisez vos bases de données avec DynamoDB

Dans DynamoDB, chaque table, présente dans votre base de données, doit avoir une colonne permettant de stocker une référence au Tenant. En règle générale, il s’agit d’un identifiant client (organizationId). 

Dans cet exemple, la colonne “OrganizationId” permet de stocker la référence au Tenant.

Créez vos utilisateurs

En parallèle de cette gestion des tables, Amazon Cognito vous permet d’ajouter des utilisateurs à vos applications SaaS. Dans une infrastructure multi-tenant, ce service va lister les différents clients (et donc leurs utilisateurs et leurs groupes) ainsi que leurs identifiants. Par ailleurs, il va associer des attributs personnalisés à chaque utilisateur en fonction du locataire auquel il est lié afin de sécuriser son authentification, et gérer ses autorisations.

De plus, AWS gère pour vous toute la sécurité et la connexion. Tous les derniers standards, notamment les authentifications à multiples facteurs, sont disponibles sans développement de votre part.

Chaque utilisateur est membre d’un groupe. Vous pouvez ainsi gérer les accès aux données de manière fine en fonction des groupes.

Définissez des règles de sécurité

Enfin, avec IAM (Identity and Access Management), vous allez définir les règles de sécurité (polices) associées à chaque groupe. Grâce à ces règles, des filtres (LeadingKey) seront créés dans la base de données DynamoDB. Ainsi, l’utilisateur accédera exclusivement à la donnée liée au filtre. Il sera dans l’incapacité de voir le reste, comme s’il était dans une enclave dédiée.

Dans cet exemple, les règles limitent aux personnes membres du groupe l’accès aux données ayant comme clé d’accès le code du client.

Conclusion

Entre le single-tenant et le multi-tenant, nous vous conseillons de choisir le second modèle d’infrastructure car il présente des atouts considérables : maintenance facilitée, frais allégés, gestion des clients simplifiée…

Par ailleurs, grâce à l’association des trois services d’AWS (DynamoDB, Cognito et IAM), la sécurité des données y est garantie. Et la gestion des droits d’accès aux données des clients n’est pas à faire par le développeur dans son code. Elle est gérée de manière séparée avec AWS. Cela présente plusieurs avantages :

  • La gestion du multi-tenant est indépendante du reste du code.
  • Plus généralement, la gestion du contrôle d’accès aux données est ainsi indépendante du code de l’application SaaS.
  • Il est possible d’utiliser d’autres services pour réaliser des statistiques sur les données par clients, avec QuickSight notamment.

* BAM (Build Automation Machine) est une solution innovante créée par premaccess. Elle permet d’automatiser la gestion et le cycle de vie de vos infrastructures et leur déploiement chez AWS. 

Aller plus loin :

Article AWS : https://aws.amazon.com/fr/partners/saas-factory/tenant-isolation/

Nos services : https://www.premaccess.com/#services

Premaccess  = Contactez notre équipe d’experts pour vos Services Managés Cloud

Développement  = Découvrir notre accompagnement pour vos développements SaaS ou Logiciel

Après 30 ans dans le domaine du développement web, Romain Demoustier “Directeur du conseil” accompagne les clients de premaccess dans la transformation de leur univers informatique. Pour ce manager de transition, les dirigeants ne doivent plus considérer la création de logiciel ou d’application comme un coût fixe, mais comme une charge récurrente, lissée dans le temps. Car, prendre en compte le besoin de ces clients demande désormais d’améliorer son offre en continu. Une posture nouvelle qui favorise le développement de nouvelles stratégies. 


Le developpement Avant Internet et le cloud

« Quand j’ai débuté ma carrière dans l’informatique, nous étions loin du développement itératif : les entreprises pensaient leur logiciel comme un produit à réaliser à un instant T. Il représentait un coût fixe pour leurs dirigeants, explique Romain Demoustier. Cette méthode leur convenait bien, car les logiciels étaient des produits que nous installions sur des postes informatiques. Le coût de distribution des logiciels étaient lourds : envoyer un CD, installer une nouvelle version sur beaucoup de machines prenaient beaucoup de temps. »

À cette époque, les projets de développement étaient menés en suivant notamment la méthode en cascade :

quels sont nos besoins > voici le produit que nous pouvons développer pour y répondre > voici le planning et le coût de ce produit. 

Cette méthode a un inconvénient majeur : entre le moment où vous énonciez vos besoins et la réalisation du produit par les développeurs, un temps s’était écoulé et votre demande avait évolué. Du coup, le produit final ne répondait plus à la requête initiale. Il fallait donc l’étoffer. Résultat : cela vous coûtait plus cher que prévu. 


Depuis, la donne a changé pour les développeurs…

Internet et le cloud ont considérablement bouleversé le métier de développeurs. Aujourd’hui, nous ne parlons plus de logiciels mais d’applications disponibles à la demande (SaaS).

Avec cette transformation digitale, les développeurs ont basculé dans le développement continu. Cela est tangible dans leurs méthodes de travail, plus agiles, plus proches du besoin utilisateur. Les logiciels ne sont plus installés sur des machines, mais sont disponibles sur le cloud. Cela leur permet de les modifier constamment pour mieux répondre à la demande du consommateur. 


… mais aussi pour les dirigeants 

Ce développement continu a forcément un impact sur les finances des entreprises. 

« Je suis souvent consulté par des chefs d’entreprises ou des porteurs de projets pour le développement d’application, rapporte Romain Demoustier. Ils me posent généralement la même question : « Je souhaite développer un nouveau service. J’ai besoin d’une application. Voici les fonctionnalités à créer. À votre avis, combien cela pourrait-il coûter ? Une entreprise m’a fait un devis de 60 000 euros pour développer mon application, qu’en pensez-vous ? »

À chaque fois, ma réponse est identique : il ne faut plus voir une application comme un produit que l’on réalise en une seule fois, mais comme un process continu d’amélioration. Nos méthodes de développement en cascade nous ont prouvé que produire un logiciel en « one-shot » peut coûter plus cher que prévu. Pour rendre nos investissements plus rentables, répartissons-les dans le temps. »

Comme les développeurs qui pensent leur logiciel de façon continue, les dirigeants et porteurs de projets doivent désormais changer leur regard sur la manière de mettre en oeuvre leurs applications. Ils ne doivent plus penser leur logiciel / application comme un coût fixe, mais comme une dépense mensuelle sur la durée du projet. Ainsi, ils pourront l’étoffer au fur et à mesure en fonction des besoins de leurs cibles. Tous doivent avoir en tête qu’une application n’est plus un produit figé, mais un service « vivant » façonné par l’expérience client.

Beaucoup diront que le principal frein à cette méthode est l’estimation du coût sur le long terme. Effectivement, au début, il est difficile de chiffrer complètement le projet. Mais ce projet lui-même n’est pas totalement défini au départ, il va évoluer au fur et à mesure de sa réalisation. L’expérience nous a prouvé que produire ainsi permet de mieux répartir les dépenses lors d’un développement. 


Notre accompagnement chez premaccess

Chez premaccess, nous avons adopté le développement continu avec plusieurs de nos clients. Quand l’un d’entre eux nous sollicite pour le développement d’un logiciel, notre objectif est de définir les besoins initiaux. 

Ainsi, nous développons un PoC (proof of concept). Ce produit n’est pas destiné à entrer en production. Il sert juste à vérifier que tout fonctionne d’un point de vue technique, mais aussi business. 

Une fois validé, nous créons un prototype opérationnel, un MVP (minimum viable product). Nous le mettons en ligne et nous le faisons évoluer progressivement avec le client. 

  • L’intérêt majeur de cette méthode est que le développement d’un MVP coûte bien moins cher.
  • Son second intérêt est que nous le mettons à disposition des utilisateurs de nos clients. Ainsi, nous confrontons l’idée au marché pour l’améliorer progressivement. 

Développement continu : les avantages pour les entreprises

  1. Vous réduisez vos risques d’échecs : De manière générale, les dirigeants ont du mal à conceptualiser ce qu’ils veulent. Lors de projets menés via la méthode en cascade, ces derniers sont très souvent déçus, car le produit final n’est pas celui attendu. La déception est d’autant plus grande qu’il faut réinvestir de l’argent pour modifier à nouveau le produit. En développant en continu, en créant un MVP, et donc en payant au fur et à mesure, cela leur permet de visualiser le résultat et de l’affiner. Vous réduisez ainsi vos risques d’échec car vous testez votre offre auprès de vos clients et vous vous assurez d’aller dans la bonne voie technologique.

  2. Vous dépensez moins au lancement du projet : Produire un MVP vous coûte bien moins cher que de créer un produit « one-shot ». Pourquoi ? Car, vous créez vos fonctionnalités au fur et mesure au lieu de créer un produit avec une multitudes de fonctionnalités qui, une fois sur deux, ne seront pas utilisées par vos utilisateurs. De plus, cela a la mérite de forcer le dirigeant à synthétiser son offre, à définir quelle est sa vraie valeur ajoutée.

  3. Vous gagnerez du temps car, dans cette démarche, il est plus rapide de produire un MVP que de développer en une seule fois un important logiciel avec pléthores de fonctionnalités.

  4. Vous testez et ajustez votre offre auprès de vos utilisateurs. Vous êtes donc plus en alerte de nouveaux business models.

  5. Vous avez un aperçu de vos dépenses : Enfin, l’équipe de premaccess conseillent à ses clients de déployer leur offre sur AWS, car ce cloud provider permet de créer des applications facilement en microservices (serverless). Par ailleurs, il permet d’avoir un aperçu sur vos dépenses : vous payez uniquement les ressources que vous consommez. Ce qui peut s’avérer stratégique en début de projet. Il n’y a plus d’infrastructure complexe à payer même si elle ne sert pas.

Avec le cloud, nous avons basculé dans une économie de plateforme. Nous sommes passés de l’acquisition de produit (payé en une fois) à l’achat mensuel de services (Spotify, Suite Adobe, Office 365…). Cette logique est désormais de mise lors du développement de vos logiciels ou d’applications. Les entreprises doivent l’avoir en tête. D’autant que l’analyse des données vous permet d’étudier la satisfaction de vos utilisateurs afin d’ajuster votre offre très rapidement.

Si vous souhaitez en savoir plus sur ce sujet, n’hésitez pas à contacter l’équipe de premaccess. Elle vous accompagnera pas à pas dans la création de votre projet, et vous présentera les atouts du développement continu.

Qui n’a pas connu cette frustration de devoir renvoyer un vêtement ou une paire de chaussures, aussitôt reçus par La Poste, suite à une erreur de taille ? Pour éviter ces imprévus lors des commandes en ligne, la start-up Fitizzy a mis au point un algorithme particulièrement intelligent. Il recommande à l’internaute la taille qui lui convient le mieux en fonction de ses mensurations et des patronages de différentes marques. 

Dédié initialement au prêt-à-porter grand public, partenaire de grandes marques comme Promod, Naf Naf, Celio, Cyrillus ou bien Etam pour la lingerie, Fitizzy s’ouvre depuis deux ans au secteur professionnel.

L’apparition de cette offre B2B a été possible suite à la bascule des applications de Fitizzy dans le cloud AWS et à l’utilisation des microservices proposés par ce cloud provider. Lors de cette étape stratégique, la start-up a été soutenue par l’équipe de premaccess techniquement, mais également en termes de business. Christophe Del Fabbro, CTO de Fitizzy, a participé pleinement à cette migration.

Dans cette interview, il revient sur la genèse de Fitizzy, et sur l’offre proposée. Il nous explique également comment l’application a été déployée sur AWS afin d’accélérer le développement de cette entreprise innovante.

Avec Fitizzy, les leaders du prêt-à-porter réduisent leurs taux de retour

« Fitizzy est née en 2013 grâce à Sébastien Ramel et Gaultier Monier. Lorsqu’ils étaient étudiants, tous deux avaient toujours peur d’acheter des vêtements en ligne, car ils n’étaient jamais sûrs de commander la bonne taille. Ils ont cherché des outils pour régler cette problématique. Ils n’ont rien trouvé. C’est ainsi que leur est venue l’idée de monter cette application. 

Dès le début de ce projet, nous nous sommes consacrés au secteur du prêt-à-porter. Notre objectif premier était d’aider nos partenaires à recommander la bonne taille à leurs utilisateurs. Sur leur site e-commerce, et plus précisément sur leurs fiches produits, nous installons notre plugin via un bouton d’action. Lorsqu’il clique sur ce bouton, l’utilisateur doit renseigner plusieurs informations morphologiques (son sexe, son âge, sa taille et son poids). Ces données sont croisées avec les informations techniques de la marque afin de lui fournir une recommandation sur la taille la plus juste. 

Initialement, Fitizzy fournissait aux utilisateurs des recommandations de taille sur un produit donné. Désormais, nous allons plus loin en proposant des recommandations de produit en fonction de votre morphologie. Aujourd’hui, nous mettons ces services à disposition de plus d’une cinquantaine de marques dans le secteur du vêtement et de la chaussure.

Cette application permet clairement de mettre l’internaute en confiance lors de son achat en ligne – il a moins peur de se tromper lors du choix de la taille. De plus, elle réduit considérablement les retours clients suite à une commande en ligne. Ces retours, gratuits pour le consommateur, sont très coûteux pour le distributeur. 

À côté de cela, depuis deux ans, nous avons ouvert un nouveau marché dédié aux vêtements professionnels. De plus en plus d’entreprises ont besoin d’habiller leurs employés. Jusqu’à présent, ces entreprises passaient par des sociétés qui mandatent des agents chargés de relever sur place les mensurations de chaque employé.

Pour réduire ces coûts de déplacement, nous avons eu l’idée de créer une plateforme dédiée à la prise de mensuration. Sur cette plateforme, les employés remplissent un formulaire et nous informent sur leur morphologie. En fonction de ces informations collectées, nous produisons des recommandations de taille. Ainsi, il y a moins d’erreurs dans le nombre de modèles à produire, et les frais de gestion et livraison sont réduits.

Dans ce secteur, nous travaillons notamment avec Bragard, leader dans les vêtements professionnels pour la cuisine, les métiers de bouche et l’hôtellerie, ainsi qu’avec CWS-Boco, spécialiste dans les vêtements de chantier. »


Des architectures plus souples et plus flexibles grâce à AWS

« Notre application a basculé sur le cloud d’AWS il y a plus de deux ans. Il y avait un grand intérêt à faire ce pas car, à l’époque, nous travaillions encore sur des serveurs hébergés. Du coup, nous n’avions pas toute la souplesse qu’offre AWS et leurs services managés. La conception des nouvelles architectures était plus laborieuse, demandait plus de temps. Et le résultat était souvent plus coûteux que ce que peut nous apporter AWS aujourd’hui. »


Une migration pas à pas 

« Lorsque vous migrez une application sur AWS, trois possibilités s’offrent à vous. 

Soit vous prenez l’existant et vous essayez de le faire entrer tel quel dans AWS. Cela est possible. Il s’agit de la méthode « lift and shift ». Mais, elle coûte cher, car vous n’utilisez pas les fonctionnalités natives du cloud. 

Soit vous repensez toute l’architecture et le code de votre application afin de pouvoir optimiser au maximum les fonctionnalités natives du cloud. On parle alors de « refactoring ».

Dans notre cas, nous avons choisi un entre-deux, nous avons opté pour le « replatform ». Cette méthode permet de tirer parti des fonctionnalités de base du cloud, d’optimiser les coûts, sans engager un niveau de ressources élevé. Ainsi, lors de cette migration, épaulés par l’équipe de premaccess, nous avons pris le temps de préparer les grandes briques de notre application avant d’investir AWS, en évitant le simple « copier-coller ».

Nous avons  :

  • le coeur central, autonome, consacré à notre API.
  • puis nos services, le plugin, nos applications, les plateformes, tout ce qui est « web ». Ces éléments sont indépendants du coeur central.
  • Enfin, nos bases de données. »

Utiliser les données pour améliorer les services e-commerce

« La gestion des données est cruciale dans Fitizzy, notamment pour améliorer nos recommandations. Aussi, lors de notre bascule sur AWS, nous avons investi Amazon Kinesis et la chaîne de services suivants : S3 + Athena + QuickSight grâce au soutien des équipes de premaccess

Kinesis est un service managé permettant de collecter, trier et analyser des datas stratégiques des sites marchands de nos partenaires. Pour chacun de nos clients, nous analysons les pages vues, les clics sur notre bouton d’action, l’ouverture de notre plugin, le contenu de notre recommandation, l’ajout au panier, l’achat ou l’abandon de panier. En croisant l’ensemble de ces informations, nous cherchons à affiner nos outils.

L’ensemble de ces données sont mises à disposition de nos clients grâce au service Amazon QuickSight. Via un Dashboard dédié, chaque partenaire retrouve l’ensemble de ces datas sous forme de graphiques. Ces KPIs peuvent être utilisés par son service marketing pour améliorer les performances de son site e-commerce. Elles peuvent également être intéressantes par ses modélistes pour optimiser les nouvelles collections en analysant les données morphologiques du moment. »


Les + de premaccess : l’analyse des enjeux, la maîtrise des coûts et l’expertise AWS

« La force de premaccess tient dans son expertise dans le domaine du développement logiciel, des services managés d’AWS et de la migration. Lorsque nous nous sommes penchés sur ce projet de migration, son équipe a avant tout évalué nos enjeux.

Au-delà de « Est-ce que nous migrons sur AWS ? », notre réflexion s’est plutôt portée sur « Est-ce que cela vaut le coup que nous le fassions maintenant sur AWS et de cette manière ?

Est-ce rentable pour nous de recruter des ressources pour faire ce travail maintenant ou est-ce que cela vaut le coût d’attendre quelques semaines quand nous aurons plus de ressources, plus de budgets ? »

Avant même cette migration, premaccess nous a accompagné sur cette dimension « business » afin que nous optimisions nos finances.

En second temps, ils nous ont énormément conseillé dans le travail préparatoire à la migration, et dans la mise en place du plan d’action. Clairement, même si je suis développeur, je n’avais pas du tout d’expérience sur le cloud d’AWS. Leur participation sur le plan d’action a été très précieuse.

Enfin, une fois le plan de migration validé, une partie de la bascule sur AWS a été réalisée en interne avec le soutien de l’équipe de premaccess. Ils ont aussi pris en charge la partie « Landing Zone et Sécurité » de notre espace sur AWS (création d’utilisateurs, gestion des droits, préparation du réseau et des couches réseau, etc.). Ils l’ont déployée via leur solution SaaS BAM que nous utilisons désormais tous les jours pour nos environnements temporaires.

En partant d’un template bien défini, cet outil crée très rapidement des environnements parfaitement configurés. De quoi nous faire gagner beaucoup de temps. 

Par ailleurs, nous sommes toujours en quête d’efficience. Nous cherchons à normaliser nos technologies sur nos différents projets, à faire en sorte que nos cycles de développement soient similaires d’un projet à un autre. Cela est aujourd’hui facilité avec BAM. Cet outil nous assure une automatisation des processus, et ne laisse aucune place à l’erreur humaine.

Ainsi, nous nous concentrons davantage sur notre développement, sur notre coeur de métier. En tant que développeur, grâce à cette solution, je passe plus de temps à créer des fonctionnalités, à enrichir notre partie business qu’à mettre en place les infrastructures techniques pour nos applications. »


Prochain challenge : proposer Fitizzy en mode SaaS

« Désormais, notre prochain challenge sera de rendre Fitizzy complètement SaaS. Ainsi, n’importe quelle marque pourra configurer notre solution à travers notre interface sans même avoir besoin que nos équipes interviennent. L’idée est aujourd’hui mature. Les premières briques commencent à arriver. 

Clairement, ce nouveau projet aurait été bien difficile à mener sur notre ancienne infrastructure. Grâce à cet investissement sur le cloud d’AWS, il est désormais à notre portée, et ouvre de nouvelles perspectives. 

Dans le développement de Fitizzy, premaccess est aujourd’hui plus qu’un partenaire technique. Son équipe a une telle connaissance du développement logiciel avec AWS qu’elle nous aide à améliorer notre business et étoffer notre offre. Je pense notamment à ses conseils sur les services managés liés à la gestion des données et le serverless. De quoi avoir un coup d’avance et toucher de nouveaux marchés. »



Aller plus loin

Voici quelques services managés d’AWS utilisés par Fitizzy


Le developpement SaaS d’une application pour transmettre les gestes techniques et les savoir-faire n’est pas chose aisée.
Pour y remédier, l’entreprise Sourcin a créé, en 2011, une plateforme multimédia alliant collaboratif et e-learning. Pour chacun de ses clients, elle y rassemble l’ensemble de leurs procédures sous forme de courtes vidéos graphiquement enrichies et segmentées en étapes élémentaires. (Mediabook).
Dans l’industrie pharmaceutique et de la biotechnologie, ce transfert de connaissances entre collaborateurs est d’autant plus problématique que toutes mauvaises manipulations peuvent engendrer de graves erreurs. 

Objectif : former en continu les opérateurs de production et les assister sur leur poste. 

Épaulée par les équipes de premaccess, ce developpement SaaS a pour objectif une plateforme qui a permis à Sourcin d’innover il y a deux ans, en basculant sur le cloud d’AWS. Son co-fondateur Arnaud Schmutz nous explique ce que lui apporte AWS dans le développement SaaS de Sourcin, tant en sécurité qu’en disponibilité de services. Deux composantes primordiales pour le secteur de la biopharma en pleine transformation digitale.

Sourcin ancre le savoir-faire de la biotechnologie grâce à la vidéo 

« Toute ma vie professionnelle a été consacrée au secteur pharmaceutique et de la biotechnologie. Au fur et à mesure de mon parcours, je me suis rendu compte que le fait d’avoir une procédure écrite n’était pas toujours la garantie qu’elle soit comprise par tous. Et, que la meilleure manière de transmettre de la connaissance était finalement en la montrant. C’est ainsi qu’est née l’idée de Sourcin.

Avec nos clients, nous créons des vidéos courtes de 5 minutes maximum ainsi que des animations pour montrer leurs différents gestes techniques en production. Ces vidéos sont muettes pour qu’elles soient comprises par tous leurs collaborateurs. Notre leitmotiv est clair : « keep it simple and smart ». Rassemblées, ces vidéos composent alors un parcours de formation, disponible sur notre plateforme multimédia. En favorisant des parcours d’apprentissage en mode « blended-learning », les collaborateurs de nos clients vont visionner ces Mediabooks, dans un premier temps, seuls –  en distanciel (e-learning) -, pour apprendre les gestes, suivre les cours associés et se tester via des quiz et évaluations interactives. Puis, en présentiel avec un expert métier, ils vont les analyser en détail avant de passer en atelier. Enfin, par souci de cohérence, ces vidéos serviront d’assistance au poste puisqu’elles sont disponibles 24/7 et toujours à jour. Avec cette plateforme multimédia unique, nos clients ancrent leur savoir-faire, pour mieux le partager, le rendre pérenne, et ainsi gagner en efficience. »

Objectif principal du Saas : rendre les vidéos disponibles 24/7 à travers le monde

« Au tout début de Sourcin, pour transmettre ces vidéos à nos clients, nous les gravions sur un CD. Très vite, nous nous sommes rendus compte que ce support était inadéquat pour plusieurs raisons : les personnes en possession du CD n’avaient pas forcément un lecteur pour le lire, elles n’étaient pas forcément les plus concernées par son contenu, et il était possible qu’elles partent à la concurrence le CD en poche. Il fallait donc sécuriser ce savoir. D’autant que nous travaillons, sous contrat de confidentialité avec des entreprises mondiales. Deuxième prérequis : il fallait que nos vidéos soient disponibles partout et tout le temps. Nos clients sont principalement américains et européens. Mais leurs utilisateurs sont installés à travers le monde. C’est ainsi qu’est née la première version de notre plateforme multimédia en 2011. »

Les premiers apports de premaccess : de la haute disponibilité des ressources grâce au serverless et une rapidité de déploiement 

« Nous travaillons avec premaccess depuis près de 7 ans. Initialement, leurs équipes s’occupaient uniquement de l’hébergement et de l’infogérance de notre plateforme. La sécurité est leur coeur de métier. Progressivement, ils nous ont présenté les intérêts du cloud d’AWS. C’est ainsi que nous avons repensé notre interface il y a deux ans afin de migrer vers une architecture Serverless et des technologies innovantes (lien vers l’article « quels sont les avantages de l’architecture serverless »). Cela nous a demandé de repenser l’ensemble de nos besoins, tant en termes de marché, de fonctionnalités, d’interface, de design, de diffusion… Désormais, nous sommes 100% propriétaires du developpement SaaS de notre plateforme ultra-sécurisée. Grâce à cette nouvelle architecture Serverless, nous avons gagné en qualité de diffusion de vidéos. Ces dernières sont moins compressées, bien plus précises, plus belles. Ce qui est primordial pour retenir l’attention des personnes connectées. Nous gérons plus facilement les comptes utilisateurs, leur authentification, leurs droits d’accès associés (qui peut faire quoi sur cette plateforme), ainsi que leurs données personnelles en règle avec le RGPD. De plus, cette plateforme est disponible en mode SaaS, un avantage non négligeable pour nos clients : ils ont juste à s’y connecter et à l’utiliser, sans se soucier de sa maintenance.

Par ailleurs, lors du développement SaaS de cette plateforme, une fois la structure d’un espace client créée, nous avons utilisé BAM pour automatiser la duplication de cette architecture centrale pour chacun de nos autres clients. BAM (Build Automation Machine, ndlr) est un outil développé par premaccess. Cette solution a permis d’automatiser notre déploiement facilement, rapidement et en toute sécurité en partant d’un modèle, et d’orchestrer le cycle de vie de notre production. (lien vers la présentation de BAM sur le site de premaccess) »

AWS et la biopharma : données sécurisées et principes d’ALCOA+ respectés

« Les autorités en charge de la mise sur le marché d’un médicament (ANSM en France, FDA aux USA, EMA à l’échelle de l’Europe) demandent à ce que les données autour des produits soient sécurisées. Dans ce cadre, depuis sa bascule sur AWS, Sourcin est conforme aux règles du cloud dans le secteur pharmaceutique. Lors du développement SaaS de notre plateforme, nous avons été attentifs à ce que nos données respectent le principe d’ALCOA+, garantissant l’intégrité des données. Cet acronyme reprend neuf principes que nous suivons scrupuleusement pour la gestion des datas: Attribuable, Lisible, Contemporain, Original, Exact, Complet, Cohérent, Durable et Disponible. 

Ceci a été possible grâce aux conseils avisés de l’équipe de premaccess. Dotée d’une expertise rare, cette équipe est composée de personnes particulièrement qualifiées sur les technologies de pointe proposées par AWS. Au fur et à mesure du développement SaaS de Sourcin, elles ont été force de propositions. De quoi donner un formidable effet de levier à notre projet. » 

ENCADRÉ

Voici quelques-uns des services AWS utilisés dans ce projet :

Concrétisons ensemble votre prochaine innovation ! Contactez-nous : https://www.premaccess.com/contact/

Basculer tout ou partie de son infrastructure sur le Cloud d’AWS a un coût. Mais, il est possible d’optimiser ces dépenses. La solution idéale : avoir une démarche FinOps. Ce processus fait son apparition aujourd’hui dans les grands groupes. Il vise à rapprocher finance et ingénierie. En conjuguant leurs compétences, ses équipes analysent vos infrastructures avec un oeil nouveau avec pour objectifs une démarche FinOps pour améliorer votre usage du Cloud afin de réduire considérablement votre facture. 

Sur AWS, il existe 5 grands piliers ou astuces pour optimiser les coûts. Si vous souhaitez installer vos applications chez ce Cloud Provider, nous vous invitons à suivre ces 5 recommandations. Vous intégrerez ainsi la FinOps dans votre stratégie digitale.

FinOps #1 : Configurez efficacement la taille de vos instances

Sur AWS, il est possible d’ajuster la taille des services utilisés en fonction de vos besoins à l’instant T, et de les redimensionner au fur et à mesure selon les pics de charges enregistrés. Cet ajustement dépend de plusieurs facteurs : de votre environnement (développement, test ou production), de la fluctuation de votre activité en ligne, etc…

Bien adapter la taille de vos instances a un impact sur la capacité de calcul de votre infrastructure, sur sa mémoire, son stockage, le débit du réseau…

Pour cela, trois services managés sont à votre disposition sur AWS : 

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici

FinOps #2 : Optez pour l’élasticité

L’intérêt du FinOps sur le cloud est que vous pouvez augmenter ou réduire les ressources nécessaires en fonction de vos besoins. En cas d’augmentation de trafic, vous devrez utiliser plus de ressources. Une fois ce pic redescendu, inutile de garder cette configuration.

Objectif : ne payez que ce que vous consommez. 

Il existe deux types d’élasticité : une première basée sur le temps, une seconde calculée sur le volume de ressources nécessaires au bon fonctionnement. Sur AWS, plusieurs services managés vous aident à paramétrer ces élasticités :

  • Amazon EC2 Scheduler permet de configurer le planning de démarrage et d’arrêt des instances Amazon EC2.
  • AWS Lambda exécute votre code uniquement lorsque cela est nécessaire et s’adapte automatiquement, qu’il s’agisse de quelques demandes par jour ou de milliers par seconde.
  • AWS DataPipeline arrête et démarre les instances Amazon EC2 en exécutant des commandes CLI (AWS) sur un horaire fixe.
  • Amazon CloudWatch surveille votre utilisation des instances Amazon EC2 et les arrête si elles ne sont pas utilisées.
  • AWS Auto Scaling augmente et réduit automatiquement le nombre de vos instances Amazon EC2 afin de maintenir la performance du système en cas de pic de trafic et de réduire ses capacités en cas de période creuse.

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici

FinOps #3 : Utilisez le bon modèle de tarification

AWS proposait jusqu’à présent trois modèles de tarification : instances à la demande, instances réservées, et instances spot. Il en propose un quatrième depuis ce mois-ci : le Savings Plans. La combinaison de ces quatre modèles vous permettra de réduire les coûts.

Avec les instances à la demande, vous payez la capacité de calcul à l’heure ou à la seconde (60 secondes minimum) sans engagement à long terme.

Avec les instances réservées, vous bénéficiez d’une remise conséquente (jusqu’à 75 %) par rapport à la tarification à la demande. Vous disposez également d’une réservation de capacité quand elles sont exécutées dans une zone de disponibilité spécifique.

Avec les instances Spot Amazon EC2, vous profitez des capacités EC2 non utilisées dans le cloud AWS. Ces instances sont disponibles avec une réduction allant jusqu’à 90 % par rapport aux tarifs à la demande. Elles sont utilisables pour des applications statiques, tolérantes aux pannes ou flexibles comme, par exemple, les charges de travail du test et développement. 

Lancé en Novembre 2019, le Savings Plans offre les mêmes réductions que les instances réservées, mais, pour pouvoir y accéder, l’utilisateur doit s’engager à utiliser un montant spécifique de puissance de calcul (mesuré en dollars par heure) sur une période maximale de trois ans.

Ce modèle est intéressant pour les entreprises qui ont un aperçu de leurs besoins sur le long terme. Cela leur permettra de réserver les ressources nécessaires sur une période longue bien définie, tout en réalisant des économies.

Ce Savings Plans FinOps est disponible sous deux versions :

Le plan « Compute Savings » offre une grande flexibilité et permet de réduire vos coûts jusqu’à 66% (tout comme les instances réservées convertibles). Ce plan s’applique automatiquement à toute instance EC2, quelle que soit la région. Par exemple, vous pouvez passer d’instances C4 à C5, déplacer une charge de travail de Dublin à Londres, en bénéficiant des prix de ce plan d’épargne.

À la différence, le Savings Plans EC2 s’applique à une famille d’instances spécifique dans une seule région et mais offre un rabais le plus important (jusqu’à 72%). 

Savings Plan AWS

Pour aller plus loin sur le Savings Plans : https://aws.amazon.com/fr/savingsplans/

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici

FinOps #4 : Optimisez votre espace de stockage

AWS propose plusieurs services de stockage. La clé, pour assurer votre budget FinOps sur cette partie, est de bien choisir votre espace en fonction de vos usages.

Avec Amazon S3, vous disposez d’une offre large de stockage conçue pour différents types d’utilisation :

– S3 Standard est dédié au stockage de données « à usage général ».

– À l’inverse, Reduced Redundancy Storage (RRS) vous permet de stocker les données non critiques et reproductibles à des niveaux de redondance inférieurs à ceux du stockage standard Amazon S3.

– S3 Intelligent-Tiering permet de déplacer des données entre deux niveaux d’accès (fréquent et peu fréquent). Idéal pour les données dont les schémas d’accès sont inconnus ou modifiés.

– S3 Standard-Infrequent Access (S3 Standard-IA) est prévue pour les données auxquelles on accède rarement (copie de sauvegarde secondaire de données d’un site, etc…)

– Amazon S3 Glacier (S3 Glacier) et Amazon S3 Glacier Deep Archive (S3 Glacier Deep Archive) sont des classes de stockage destinées à l’archivage et la sauvegarde des données à long terme. Toutes deux proposent des options d’accès aux archives à coûts avantageux. Ces accès ont des délais allant de quelques minutes à 12 ou 48 heures.

Avec Amazon Elastic Block Store (Amazon EBS), vous optez pour un stockage permanent accessible par des instances EC2 simples. Cela est utile pour les bases de données relationnelles et NoSQL, les applications d’entreprise, et les analyses de Big Data.

Amazon Elastic File System (Amazon EFS) est utile pour le stockage simple de fichiers et pour une charges de travail basée sur Linux. 

Amazon FSx for Lustre est nécessaire pour les charges de travail demandant une importante capacité de calcul, telles que le Machine Learning et le traitement de données multimédia.
Amazon FSx for Windows File Server est dédié aux applications Windows qui nécessitent un stockage de fichiers vers AWS.

AWS Storage Gateway soutient des opérations de cloud bursting, de hiérarchisation et de migration.

Enfin, AWS Backup centralise et automatise la sauvegarde de données sur l’ensemble des services AWS.

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici

FinOps #5 : Mesurez et surveillez vos environnements

Pensez, en premier lieu, à baliser (Charte de TAG) vos instances, images et diverses ressources. 

Utilisez, en second temps, AWS Cost Explorer. Avec ce service managé, vous visualisez et comprenez mieux votre utilisation d’AWS avec vos balises en place projet par projet. Ainsi, vous maximisez votre gestion du Cloud au fur et à mesure. Grâce à AWS Cost Explorer, vous disposez de rapports sur vos coûts mensuels par service, par compte, par projet…

Enfin, si vous voulez être alerté en cas de dépassement de budget, optez pour AWS Budgets. Avec ce service, vous définissez des montants à investir. Une fois cette somme atteinte, vous êtes aussitôt prévenu.

Adopter une démarche FinOps n’est pas simple. Taille des instances, auto-scaling, tarification, stockage… Plusieurs éléments sont à prendre en compte pour réussir à jongler entre ingénierie et coûts.
Aussi, si vous souhaitez réduire vos dépenses d’infrastructure sur AWS, n’hésitez pas à solliciter les équipes de premaccess. Spécialisées dans les services managés de ce Cloud Provider, elles auront à coeur de vous conseiller et de vous accompagner dans cette quête d’optimisation technique et financière FinOps .

Besoin d’une expertise FinOps contactez nos équipes de consultants dédiés ici #FinOps #CostKilling addict 🙂

Les premières annonces faites à AWS re:Invent 2019

Depuis le 2 décembre, les experts d’AWS, à travers le monde, se sont donné rendez-vous à la conférence annuelle du cloud provider, AWS re:Invent 2019, à Las Vegas. L’équipe de premaccess n’a pas manqué cet évènement incontournable. Elle vous rapporte les premières annonces d’AWS, tant en nouveaux services qu’en fonctionnalités supplémentaires.


Amazon Bracket

Vous allez découvrir l’informatique quantique (Quantum Computing). À la différence des ordinateurs classiques qui réalisent des opérations avec des bits égaux à 0 ou 1, les ordinateurs quantiques peuvent produire des opérations avec des bits à l’état de 0 et 1. Nous parlons alors de qubits. Ces ordinateurs peuvent ainsi démultiplier le nombre de calculs. Ils sont rares et doivent fonctionner dans des environnements physiques contrôlés. Avec Amazon Bracket, vous pouvez acquérir une expérience pratique des qubits et des circuits quantiques, créer et tester vos circuits dans un environnement simulé.

https://aws.amazon.com/de/blogs/aws/amazon-braket-get-started-with-quantum-computing/


Amazon Outpost

Annoncé l’an dernier en preview, ce service est désormais disponible. Il vous permet d’exécuter votre infrastructure AWS sur site, en ayant accès aux mêmes API et outils disponibles aujourd’hui sur le cloud.

https://aws.amazon.com/fr/outposts/


Amazon EKS est maintenant disponible sur Amazon Fargate

Ainsi, vous pouvez utiliser Amazon Elastic Kubernetes (EKS) pour exécuter les pods Kubernetes sur AWS Fargate. EKS et Fargate facilitent l’exécution d’applications basées sur Kubernetes sur AWS. Avec AWS Fargate, plus besoin d’être des experts des opérations Kubernetes pour gérer un cluster hautement disponible et optimisé en termes de coûts. Plus besoin non plus de gérer les instances EC2. 

https://aws.amazon.com/fr/blogs/aws/amazon-eks-on-aws-fargate-now-generally-available/


Amazon S3 Access Points

est une nouvelle fonctionnalité S3. Elle simplifie la gestion de l’accès aux données partagées. Avec S3 Access Points, vous pouvez facilement créer des centaines de points d’accès avec un nom dédié et des autorisations personnalisées sur votre application. 

https://aws.amazon.com/fr/about-aws/whats-new/2019/12/amazon-s3-access-points-manage-data-access-at-scale-shared-data-sets/


Provisioned Concurrency pour les fonctions Lambda

alors que Lambda fête ses 5 ans, l’équipe d’AWS nous propose de contrôler encore mieux les performances de nos applications en serverless. Et ce, avec Provisioned Concurrency. Cette fonctionnalité maintient les fonctions initialisées de vos applications pour qu’elles répondent en quelques millisecondes. Cela peut être notamment utile pour les microservices.

https://aws.amazon.com/fr/blogs/aws/new-provisioned-concurrency-for-lambda-functions/


Amazon CodeGuru

Vous pouvez automatiser la révision de votre code. Même pour les ingénieurs les plus expérimentés, il peut être difficile de détecter des problèmes dans le code lors de revues par des pairs ou lors de tests unitaires. Amazon CodeGuru vous permet d’identifier les lignes de code les plus chères dans vos applications et de recevoir des recommandations afin de les corriger ou de les améliorer.


https://aws.amazon.com/fr/about-aws/whats-new/2019/12/aws-announces-amazon-codeguru-for-automated-code-reviews-and-application-performance-recommendations/


Côté Machine Learning, plusieurs nouvelles fonctionnalités ont été ajoutées à Amazon SageMaker.

Nous retrouvons notamment :

Studio : premier environnement de développement entièrement dédié au Machine Learning

https://aws.amazon.com/fr/blogs/aws/amazon-sagemaker-studio-the-first-fully-integrated-development-environment-for-machine-learning/

Model Monitor : surveillance automatique de vos modèles de Machine Learning en production

https://aws.amazon.com/fr/blogs/aws/amazon-sagemaker-model-monitor-fully-managed-automatic-monitoring-for-your-machine-learning-models/

Autopilot : pour créer des modèles de Machine Learning de haute qualité

https://aws.amazon.com/fr/blogs/aws/amazon-sagemaker-autopilot-fully-managed-automatic-machine-learning/


EC2 Image Builder

jusqu’à présent, il n’était pas simple d’automatiser la génération d’images virtuelles. EC2 Image Builder pallie ce manque. Ce nouveau service facilite et accélère la création et la maintenance d’images de système d’exploitation sécurisé pour Windows Server et Amazon Linux 2. Et ce, à l’aide de pipelines de génération automatisés. Les images, créées par EC2 Image Builder, peuvent être utilisées avec Amazon Elastic Compute Cloud (EC2).

https://aws.amazon.com/de/blogs/aws/automate-os-image-build-pipelines-with-ec2-image-builder/


Managed Cassandra Service

avec Apache Cassandra, vous stockez et gérez de grandes quantités de données structurées. Mais, la gestion de ces données n’est pas toujours simple et peut prendre beaucoup de temps. Pour remédier à cela, AWS lance le service Amazon Managed Apache Cassandra Service (MCS). Il s’agit d’un service de base de données évolutif, hautement disponible et compatible avec Apache Cassandra. Amazon MCS étant serverless, vous ne payez que pour les ressources que vous utilisez. Il redimensionne automatiquement vos tables en fonction du trafic de vos applications. Avec MCS, vous n’avez pas de limite dans la taille des tables. Vos données sont répliquées automatiquement trois fois sur plusieurs zones de disponibilité AWS pour des raisons de durabilité. Enfin, ce nouveau service est intégré à AWS Identity and Access Management (IAM) pour vous aider à gérer l’accès à vos tables et données.

https://aws.amazon.com/fr/blogs/aws/new-amazon-managed-apache-cassandra-service-mcs/


Amazon Detective

Vous aide à analyser et à visualiser la sécurité de vos données à grande échelle. Ce service n’est pas encore disponible, mais vous pouvez en avoir un aperçu ici :

https://pages.awscloud.com/amazon-detective-preview.html


UltraWarm

Nouvel outil de stockage de haute disponibilité pour Amazon Elasticsearch Service. Entièrement managé et peu coûteux, il est aujourd’hui disponible en preview. Il offre jusqu’à 900 To de stockage.

https://aws.amazon.com/fr/blogs/aws/announcing-ultrawarm-preview-for-amazon-elasticsearch-service/


Firecracker-containerd

Le repository Firecracker-containerd, disponible sur Github, permet d’utiliser un container runtime, Containerd, pour manager les microVM de Firecracker. Firecracker est une technologie de virtualisation open source spécialement conçue pour gérer des services sécurisés, multi-locataires et basés sur des conteneurs. Grâce à ce service, présenté l’an dernier, vous pouvez déployer des charges de travail sur des machines virtuelles légères (microVM). Ces dernières offrent une sécurité et une isolation de charge de travail améliorées par rapport aux machines virtuelles traditionnelles, tout en optimisant la rapidité et l’efficacité des conteneurs. Firecracker a été développé par AWS pour améliorer l’expérience client notamment sur AWS Lambda et AWS Fargate.


https://github.com/firecracker-microvm/firecracker-containerd
https://firecracker-microvm.github.io/


Pour suivre les prochaines annonces faites au re:Invent 2019, n’hésitez à nous suivre sur notre blog et sur les réseaux sociaux.

Depuis trois ans, les cloud providers avancent progressivement sur le marché du serverless. Après Amazon Web Services (AWS) en 2015, Microsoft lui a emboîté le pas avec Azure Functions en 2016. Google, pour sa part, s’y est lancé en août 2018 avec Google Cloud Functions. Cette nouvelle technologie est aujourd’hui convoitée car elle offre de la flexibilité aux développeurs, et des coûts intéressants pour les entreprises. L’équipe de premaccess vous donne plusieurs conseils pour vous y lancer.

Qu’on se le dise : déployer une application en « serverless » ne signifie pas « sans serveur ». Une architecture « serverless » vous permet aujourd’hui de créer et d’exécuter des applications sans avoir à en gérer l’infrastructure. Ces dernières tournent toujours sur des serveurs, mais leur gestion est assurée par les cloud providers AWS, Azure ou Google Cloud. Vous n’avez plus à vous en soucier.

Lancée pour la première fois en 2015 par AWS, cette nouvelle architecture permet ainsi aux développeurs de consacrer davantage de temps à l’écriture de leur code propre à leurs applications.

Par ailleurs, elle permet aux entreprises de réduire véritablement les coûts puisque, pour fonctionner, ce type d’architecture n’a uniquement besoin que des ressources nécessaires à chaque requête exécutée.

COMMENT EST COMPOSÉE UNE ARCHITECTURE « SERVERLESS » CHEZ AWS ?

Sur son cloud, AWS dispose d’un large éventail de micro-services faciles à appréhender et à mettre en place (base de données, calcul, stockage, sécurité, mise en réseau, etc.).

Lorsqu’elle souhaite lancer son application en « serverless », une équipe informatique :

1. construit toute sa logique métier avec AWS Lambda. L’intérêt de ce service est qu’il exécute le code en réponse à des événements et qu’il gère automatiquement les ressources de calcul nécessaires en fonction du nombre de requêtes.

2. Pour bâtir le reste de son application, cette équipe fait appel aux autres services d’AWS. Après le chargement de votre code, AWS Lambda peut associer vos fonctions à d’autres briques de micro-services du cloud pour vous faire gagner du temps. Nous pouvons notamment citer :

·  Pour la gestion de la base de données : RDS ou Amazon DynamoDB

·  Pour le routage applicatif : Amazon API Gateway

·  Pour la sécurisation et la gestion des utilisateurs : Amazon Cogito

·  Pour l’authentification des ressources : AWS Identity and Access Management (IAM)

·  Pour l’envoi d’emails : Amazon Simple Email Service

LES AVANTAGES DE L’ARCHITECTURE « SERVERLESS »

Coût réduit

Avec ce type d’architecture, les services cloud ne sont alloués qu’à l’utilisation. Fini le maintien des serveurs même quand aucune requête n’est traitée. Cela permet donc à une équipe de développer plusieurs applications sans se soucier dans une premier temps des coûts associés. La facturation est ainsi calculée en fonction du temps d’exécution du code et des ressources consommées.

Plus de liberté pour les développeurs

En déployant en architecture « serverless », les développeurs ne sont plus responsables du maintien des environnements. Ils n’ont plus à les ajuster en fonction du trafic ou à vérifier leur système de sécurité. Ainsi, ils peuvent se concentrer sur leur cœur de métier : développer de la logique métier. Et gagner un temps considérable lors de la construction d’une application s’ils maîtrisent bien les briques de services d’AWS (gestion de la base de données, des pages, routage, authentification, etc.).

Haute disponibilité des ressources

En « serverless », AWS contrôle vos applications et ajuste automatiquement l’allocation des ressources nécessaires. Nous parlons ici d’autoscaling. Cela est, par exemple, possible avec Amazon Aurora sans serveur. Cette brique de service permet à la base de données de démarrer, de s’éteindre, d’augmenter ou bien de réduire sa capacité automatiquement en fonction des besoins de votre application.

LES TROIS CONSEILS DE PREMACCESS POUR DÉPLOYER UNE APPLICATION EN « SERVERLESS »

Premaccess sensibilise ses clients au serverless depuis deux ans. Sur ce terrain, son équipe d’experts en transition digitale a notamment accompagné dernièrement deux entreprises (une spécialisée en e-learning en biotechnologie, une seconde dans le tourisme de luxe) dans la création de leurs applications dans un environnement « full serverless ».

Pour ces clients, cela leur a été bénéfique en terme de coût puisqu’elles ont, grâce à cette technologie, eu un aperçu du trafic de leurs internautes et le coût associé. L’avantage du serverless est que nous pouvons tagguer les accès à ces applications et visualiser l’empreinte technique nécessaire par l’utilisation.

S’initier au « serverless » demande tout de même du temps pour bien comprendre la logique de cette architecture logicielle. Aussi, avant de déployer une application en « serverless », premaccess vous donne ces trois conseils :

1. Commencer un nouveau projet plutôt que refactoriser une ancienne application : en repartant « from scratch », vous serez plus rapides, plus efficaces. Cela vous permettra de mieux comprendre l’intérêt des micro-services d’AWS.

2. Prendre le temps de bien comprendre cette nouvelle architecture : la manière dont est structurée l’architecture « serverless » est complètement différente des autres architectures dont nous avons l’habitude en développement web. Cela nous demande donc de revoir nos méthodes de pensées. Un temps d’apprentissage est nécessaire pour y être complètement à l’aise.

3. Se faire accompagner par des experts dans ce domaine pour optimiser les services managés d’AWS : pour bien prendre en main l’ensemble des services managés d’AWS et optimiser le code de votre application, il est conseillé de se faire accompagner lors des premiers projets. La réduction de vos coûts vient par l’utilisation efficace des micro-services managés d’AWS. Le risque, quand nous nous lançons la première fois sur ce type de serveur, est de construire des applications en suivant nos méthodes actuelles, sans faire appel aux micro-services. Cela n’est pas adapté au serverless et risque de générer bien trop de requêtes, et donc de frais. Lors de la création de votre code, les experts vous indiqueront les micro-services qui peuvent vous être utiles.

En clair, s’approprier le « serverless » vous permet de construire des applications modernes avec une agilité non négligeable, avec un cycle de vie maîtrisée et un coût total réduit. Vos développeurs peuvent, grâce à cette technologie, se concentrer sur le produit sans se soucier de l’exploitation des différentes ressources. De quoi vous permettre d’être plus rapides lors de la création de nouvelles applications. Mais, pour bien optimiser cette nouvelle technologie, n’hésitez pas à vous entourer d’experts.

Alors, si vous aussi, vous souhaitez concevoir et gérer des applications en « serverless », l’équipe de premaccess est à votre disposition. Elle répondra à toutes vos questions et vous accompagnera pas à pas dans la mise en place de vos projets digitaux.

Ressources : 

Article AWS = Créer et exécuter des applications sans vous soucier des serveurs

Premaccess  = découvrir notre accompagnement avec notre équipe consulting