réduire coût développement application pattern library

Gagner du temps lors du développement. Développer vos applications plus vite et mieux. Voici les vœux de toute entreprise, pressée de voir sa solution mise sur le marché. Mais quand il faut créer « from scratch », ce n’est pas toujours simple de les exaucer.

Pour répondre à ces attentes, chez Premaccess, nous avons mis au point une bibliothèque de modèles (pattern library). Notre objectif : permettre à nos clients de réaliser un gain de temps lors du développement d’applications en utilisant des modèles déjà disponibles.

Cette bibliothèque des modèles est le fruit de nos 20 ans d’expérience dans la programmation, et 7 ans sur AWS Cloud. Au fil des projets, nos experts ont su déployer des « patterns », au code « propre », facilement déclinables en fonction des besoins clients, “en mode legos”. 

Dans cet article, nous vous proposons de revenir sur le principe de la bibliothèque de modèles (pattern library), nous présentons son intérêt pour les développeurs et les décideurs. Et nous vous dévoilons différents modèles que nous avons conçus lors de projets en co-développement avec nos clients : gestions d’invitations, dashboard analytique, déploiement d’interfaces automatisé…

Qu’est-ce qu’une bibliothèque de modèles (ou pattern library) ?

Il s’agit d’un ensemble de composants réutilisables qui façonnent une application ou un progiciel. Un composant = une fonctionnalité et une mise en page.

Sur un site e-commerce, par exemple, parmi les composants, nous pouvons retrouver : la gestion du panier, les coupons de réductions, les avis client, les recommandations en fonction de vos achats précédents ou bien de vos caractéristiques (taille, morphologie)…

Ainsi, dans une bibliothèque de modèles, vous accédez à une collection de composants.

Tous ont été testés plusieurs fois sur d’autres projets. Ils sont donc prêts à l’emploi pour de nouvelles créations. C’est en cela qu’ils permettent de gagner un temps non négligeable lors de nouveaux développements.

Utiliser notre pattern library : de nombreux intérêts pour les porteurs de projets

pattern library avantages porteurs de projets
  • Vous développez des fonctionnalités et votre solution + rapidement.
  • Nos experts co-développent avec vous et vos équipes les fonctionnalités dont vous avez besoin, et les personnalisent selon vos objectifs.
  • Chaque composant propose une fonctionnalité, et donc un code largement éprouvé et vérifié par nos experts. Ce qui vous assure un code de bonne qualité.
  • Vous rendez votre application évolutive, car les améliorations en continu sont plus faciles à apporter.
  • Votre application étant divisée en micro-modules, la chasse au bug est beaucoup plus facile. La maintenance aussi !
  • Vous pouvez aussi bénéficier des évolutions des autres clients sur les mêmes patterns.

Gestion des invitations, amélioration des performances de votre site e-commerce, automatisation de vos déploiements : voici 3 modèles facilement déclinables

En tant que AWS Partner, nous disposons, chez Premaccess, d’une forte expertise sur les services AWS. Sur ce cloud, nous proposons les services suivants :

Dans chacune de ces expertises, nous avons créé des modèles réutilisables lors de développements sur AWS. Découvrez 3 exemples.

Gestion des invitations

Avec les services Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS

Principe de ce modèle : pour une start-up spécialisée dans la visite de lieux  en 360° et en live, nous avons eu pour mission de créer un module fonctionnel de gestion des invitations sur son application. Depuis 2019, cette entreprise propose aux internautes des visites guidées à distance. Misant sur la vidéo 360° et sur l’interactivité, ce service est aujourd’hui prisé par des secteurs B2B comme l’immobilier, et B2C comme la culture et le tourisme.

Lors de la création de ce module, la question principale était : comment faire pour que les invités n’aient accès qu’à cette session et pas une autre ? Se posent ici des interrogations liées à la gestion des droits des utilisateurs. Nous avons développé cette fonctionnalité en combinant 4 services AWS (Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS) et en générant des fonctions Lambda Trigger.

A propos des services AWS utilisés : 

  • Amazon Cognito prend en charge l’inscription, la connexion des utilisateurs ainsi que le contrôle d’accès (authentification) aux applications Web et mobiles.
  • AWS Identity and Access Management (IAM) permet de contrôler de façon sécurisée l’accès aux services et ressources AWS mis à la disposition des utilisateurs.
  • Amplify JS est une bibliothèque JavaScript pour le développement d’applications sur le cloud.

Comment fonctionne Amazon Cognito et AWS IAM :

Gestion des invitations Avec les services Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS

Amélioration des performances de votre site e-commerce

Avec les services Amazon Kinesis, S3, Athena et QuickSight

Principe de ce modèle : nous avons été sollicités par une start-up spécialisée dans la recommandation de taille. Cette solution permet à plusieurs marques de vêtements de fournir des recommandations de tailles à leurs internautes en fonction de leur morphologie. 

Lors de sa bascule sur le cloud d’AWS, nous avons investi Amazon Kinesis Data Streams et la chaîne de services suivants : S3 + Athena + QuickSight. Objectif : mettre à disposition de Fitizzy un tableau de données stratégiques pour permettre à ces clients (marques de vêtements) de booster leurs ventes en ligne.

Kinesis est un service managé permettant de collecter, trier et analyser des flux importants de données en temps réel. Dans le cas de la solution Fitizzy, nous l’avons utilisé pour analyser les datas stratégiques des sites marchands utilisant cette solution. Pour chacun de ces sites, Kinesis analyse les pages vues, les clics sur notre bouton d’action, l’ouverture de notre plugin, le contenu de notre recommandation, l’ajout au panier, l’achat ou l’abandon de panier. 

L’ensemble de ces données ont été mises à disposition des clients de Fitizzy grâce au service Amazon QuickSight. Via un Dashboard dédié, ils y retrouvent l’ensemble de ces datas sous forme de graphiques. Ces KPIs peuvent être utilisés par leur service marketing pour améliorer les performances de son site e-commerce. Elles peuvent également être intéressantes par ses modélistes pour optimiser les nouvelles collections en analysant les données morphologiques du moment.

A propos des services AWS utilisés : 

  • Amazon Kinesis Data Streams : Avec Amazon Kinesis,vous pouvez collecter et traiter des flux volumineux d’enregistrements de données en temps réel. Vous pouvez également envoyer ces enregistrements dans des tableaux de bord, les utiliser pour générer des alertes et modifier dynamiquement les stratégies tarifaires et publicitaires, ou envoyer des données à différents autres services AWS.
  • Amazon QuickSight : Amazon QuickSight est un service d’informatique décisionnelle. Il permet de créer et publier facilement des tableaux de bord d’informatique décisionnelle interactifs qui incluent des informations (insights) optimisées par le Machine Learning.

Comment fonctionne Amazon Kinesis Data Streams :

Comment fonctionne Amazon Kinesis Data Streams : Amélioration des performances de votre site e-commerce

Dupliquer facilement un espace client

Avec la solution BAM (Build Automation Machine)

Principe de ce modèle : nous avons accompagné une entreprise, spécialisée dans le e-learning, a créé sa plateforme multimédia alliant collaboratif et formation à distance. Pour chacun de ses clients (entreprises  pharmaceutiques et biotech), cette entreprise décline cette plateforme. Elle y rassemble l’ensemble de leurs procédures sous forme de courtes vidéos graphiquement enrichies et segmentées en étapes élémentaires (Mediabook).

Pour automatiser la duplication de cette architecture centrale, ce spécialiste du e-learning utilise la solution BAM. Développé par premaccess, cet outil permet d’automatiser un déploiement d’environnement facilement, rapidement et en toute sécurité en partant d’un modèle. 

A propos de BAM (Build Automation Machine) : 

Cette solution innovante permet d’automatiser la gestion et le cycle de vie de vos infrastructures et leur déploiement chez AWS. En partant des modèles de templates simples pour chaque tier de vos infrastructures (réseau, sécurité, puissance de calcul, base de données, Cache & CI/CD), vous déployez rapidement et automatiquement les différents environnements sans difficulté.

Découvrez comment fonctionne BAM ici : https://www.premaccess.com/deployez-efficacement-vos-infrastructures-avec-bam-build-automation-machine-by-premaccess/

Il s’agit ici de 3 modèles d’utilisation. Mais notre bibliothèque de modèles en contient encore davantage. Alors, si vous avez un projet de développement d’application, n’hésitez pas à nous contacter. Nous disposons certainement de modèles qui vous feront gagner du temps !

Qu’est-ce qu’une bibliothèque de modèles (ou pattern library)?

Il s’agit d’un ensemble de composants réutilisables qui façonnent une application ou un progiciel. Un composant = une fonctionnalité et une mise en page.
Sur un site e-commerce, par exemple, parmi les composants, nous pouvons retrouver : la gestion du panier, les coupons de réductions, les avis client, les recommandations en fonction de vos achats précédents ou bien de vos caractéristiques (taille, morphologie)…
Ainsi, dans une bibliothèque de modèles, vous accédez à une collection de composants.
Tous ont été testés plusieurs fois sur d’autres projets. Ils sont donc prêts à l’emploi pour de nouvelles créations. C’est en cela qu’ils permettent de gagner un temps non négligeable lors de nouveaux développements.

Utiliser notre pattern library : quels sont les nombreux intérêts pour les porteurs de projets ?

1. Vous développez des fonctionnalités et votre solution + rapidement.
2. Nos experts co-développent avec vous et vos équipes les fonctionnalités dont vous avez besoin, et les personnalisent selon vos objectifs.
3. Chaque composant propose une fonctionnalité, et donc un code largement éprouvé et vérifié par nos experts. Ce qui vous assure un code de bonne qualité.
4. Vous rendez votre application évolutive, car les améliorations en continu sont plus faciles à apporter.
5. Votre application étant divisée en micro-modules, la chasse au bug est beaucoup plus facile. La maintenance aussi !
6. Vous pouvez aussi bénéficier des évolutions des autres clients sur les mêmes patterns.

Bigdata industrie textile mode fashion FBD Model

Afin d’aider les petites entreprises européennes du textile à produire mieux, plus rapidement et plus efficacement, la start-up Fitizzy et son partenaire technologique premaccess contribuent au développement d’une plateforme novatrice financée par l’Union européenne : FBD BModel (Fashion Big Data Business Model).

Lancé en 2017, dans le cadre du programme Horizon 2020, FBD BModel est un portail basé sur la data à destination des différents acteurs du retail, de la mode et du e-commerce. 

Au cœur d’un consortium européen composé de 14 acteurs majeurs, Fitizzy, spécialiste dans la gestion et l’analyse des données morphologiques, met en musique les jeux de données de chacun de ces intervenants. Jeux de données engrangés au fur et à mesure des années et de leurs expériences.

Premaccess, pour sa part, a conçu l’architecture technique de ce projet : développement d’une infrastructure cloud, développement du portail central de FBD BModel, création d’une API, gestion et protections des données… L’architecture déployée est serverless (AWS lambda), scalable en ressources, inventive en fonctionnalités, tout en étant économique sur AWS. 

Découvrez les atouts de ce projet qui entend soutenir l’économie manufacturière à l’échelle de l’Europe.

C’est une réalité depuis quelques années : l’industrie européenne de l’habillement, confrontée pendant longtemps à une réduction drastique et à une délocalisation massive vers l’Asie, tend à se relocaliser. Le “Made in France”, “Made in Europe”… reviennent à la mode.

industrie textile europe

Pour maintenir cette compétitivité, ces PME européennes se sont positionnées contre la production de masse, privilégiant la production à forte valeur ajoutée. Mais compte tenu de leur taille (90% d’entre elles ont moins de 50 salariés), beaucoup ont du mal à créer du lien avec d’autres acteurs de ce marché et elles ne disposent pas d’outils efficaces pour sonder correctement les consommateurs.

Pour répondre à ces besoins, l’Union européenne a décidé de les soutenir à travers le projet innovant FBD BModel. Créé il y a trois ans, FBD BModel est un portail à destination des différents acteurs du retail (consommateur, marques, industriels et chercheurs en R&D) et reposant sur la data. 

Son objectif : permettre le développement d’une production textile personnalisée en Europe, promouvoir les innovations matérielles des PME européennes ayant des réseaux professionnels connectés, et faire progresser le niveau de connaissances de la profession en Europe.

Comment fonctionne cette plateforme basée sur la data

Elle comprend deux sous-systèmes interconnectés basés sur la connaissance :

  • un système de conception interactif,
  • et un système de gestion de la chaîne d’approvisionnement et de la production.

Une fois connecté sur FBD BModel, le professionnel du textile, souhaitant produire une nouvelle collection, se rend dans l’interface “Builder”. Interface dans laquelle il va renseigner plusieurs informations concernant le produit qu’il envisage de réaliser : quel type de produit (polo, veste, pantalon…), pour quelle cible, quelle expérience au toucher (doux, lisse…), quel confort thermique, quels tissus…. 

Pendant cette phase de conception, le produit est présenté en 3D avec les caractéristiques demandées. 

Une gamme de services basés sur les données est mise à sa disposition (recommandation de produits et de conception, sélection de fournisseurs, planification dynamique des tâches, simulation de la production …).

Un espace virtuel étendu est prévu pour afficher et évaluer visuellement les performances « mode » et « fonctionnelles » (confort thermique, confort au toucher …) des produits intégrant le paramètre « mode de vie des consommateurs » dans leur processus de conception.

Ce portail dispose de nombreux atouts : 

  • Il rapproche les acteurs de ce marché (marques, fournisseurs, fabricants, chercheurs), pour + de transparence entre eux.
  • Il permet le développement de petites séries de vêtements fonctionnels innovants par le biais d’une chaîne d’approvisionnement locale basée dans l’Union européenne, et répondant aux exigences personnalisées des consommateurs.
  • Il optimise les activités de la chaîne d’approvisionnement.
  • Il soutient et valorise le savoir-faire local (grâce aux partages de données de chaque acteur, il y a moins de gaspillage dans la chaîne de production).

FBD BModel, un projet européen multiacteurs aux leviers technologiques 

Pour atteindre cet objectif ambitieux, l’Europe a rassemblé 14 partenaires européens de renom (universités, marques, fournisseurs, fabricants). Elle finance ce projet à hauteur de 4 millions d’euros. 

Et pour le mettre en musique, elle a sélectionné la start-up Fitizzy et son partenaire premaccess suite à un appel d’offres.

Fitizzy, expert de la data

Au cœur du consortium de FDB BModel, Fitizzy joue un rôle central. Éditrice française de logiciels dans le domaine du prêt-à-porter, cette start-up a mis au point un algorithme intelligent. Il recommande à l’internaute la taille qui lui convient le mieux en fonction de ses mensurations et des patronages de différentes marques. De grandes marques grand public (Promod, Naf Naf, Celio, Cyrillus, Etam) et professionnelles (Bragard, Mulliez-Flory, RATP) l’utilisent aujourd’hui.

Cette solution :

  • améliore le taux de conversion des ventes de ces entreprises,
  • satisfait le client en lui offrant une expérience utilisateur unique,
  • peut prédire les tendances du secteur de l’habillement selon une approche basée sur les données,
  • réduit drastiquement le taux de retour produit.
fitizzy expert en datas morphologiques industrie mode textile fashion

Pour créer la plateforme digitale FDB BModel, Fitizzy a donc mis à profit cette expertise dans la gestion et l’analyse des données morphologiques et taille/vêtement. Elle a eu en charge « l’intégration plateforme ».

premaccess, l’expert cloud

Premier partenaire technologique de Fitizzy, premaccess a eu en charge la partie “conception technique” de cette plateforme : architecture, définition des besoins fonctionnels, sécurité et notamment des données. Son objectif premier : construire un socle data commun pour l’ensemble des partenaires.

Pour pouvoir créer cet environnement de façon sécurisée, résiliente, performante et à moindre coût, cette entreprise suisse – experte en Intelligence Artificielle, Machine Learning, et en développement cloud, a utilisé les technologies serverless. 

Gestion des datas, des utilisateurs… Comment Fitizzy et premaccess ont développé FBD BModel

Voici un aperçu des actions menées lors de la création de cette plateforme.

Les 3 principes clés adoptés lors de la création de cette plateforme 

  • Une plateforme d’intermédiation pour aider les utilisateurs à franchir les étapes de conception et de production, et à obtenir des résultats rapidement
  • Un processus sûr pour échanger et stocker les données, qui sont nécessaires au calcul pour les utilisateurs finaux
  • Un environnement sécurisé avec un processus de cryptage des données et un processus d’autorisation pour les partager ou non, à un ou une partie des partenaires.

Développement d’une infrastructure unique à l’ensemble des partenaires

Au début du projet, premaccess a mis l’accent sur l’infrastructure informatique pour gérer les différents risques : 

  • risque de non-harmonisation des outils de gestion des données, 
  • risque de surcoût lors de l’élaboration, de la mise en place et la maintenance des services, 
  • risque de défaillance de la plateforme et ses performances, si les différentes bases de données ne sont pas correctement interconnectées.

Pour cela, premaccess a proposé les services AWS pour développer et gérer la plateforme, afin de collecter, rassembler, consolider, utiliser et analyser efficacement les données de chaque partenaire.

Gestion du Data Management Plan afin de veiller que :

  • les partenaires utilisent correctement la plateforme, 
  • intègrent des données sécurisées,
  • toutes les briques développées par les autres partenaires soient intégrées et intégrables à FDB BModel,
  • et surtout que la plateforme soit évolutive et compatible avec les services de données de toute la chaîne d’approvisionnement du projet.

Gestion des utilisateurs et protections des données sur FBD BModel

Un utilisateur appartenant à une entreprise spécifique et ayant un rôle spécifique souhaite accéder à certaines données. L’utilisateur accède à la plateforme web, il se connecte et navigue vers la page contenant les données qu’il souhaite consulter. Cette action génère un appel à une API sécurisée pour récupérer ces données. 

La stratégie est :

  • L’API est appelée et la demande est décorée avec le code d’autorisation de l’utilisateur.
  • Le code d’autorisation de l’utilisateur est vérifié et un tokenId est renvoyé si le code d’autorisation est valide.
  • La demande est maintenant décorée avec le tokenId de l’utilisateur.
  • Le tokenId est vérifié pour déterminer si l’utilisateur a le droit d’exécuter ce type d’opération sur ce type de données.
  • Une fois validé le droit, l’opération de base de données peut être exécutée
  • Le tokenId est échangé par des informations d’identification liées à la portée (locataire) des données autorisées pour cet utilisateur.
  • L’opération de base de données est exécutée avec ces informations d’identification, seules les données autorisées pour ce locataire sont renvoyées.
API protection donnees industie textile data FBD Model

Développement d’une API permettant un transfert de données fluide entre le système de gestion de données cloud et les différentes passerelles

Un utilisateur appartenant à une entreprise spécifique et qui a un rôle spécifique souhaite importer de nouvelles données dans la plateforme :

  • L’utilisateur télécharge ces données sur son bucket autorisé.
  • Une fois ces données téléchargées, un événement est déclenché pour notifier qu’il y a de nouvelles données.
  • Selon les règles spécifiques de l’entreprise, certaines étapes doivent être franchies:
    • Chiffrement
    • Mutation
    • Consolidation
    • Une analyse
  • Une fois les étapes réalisées, ces données peuvent être accessibles dans la plateforme pour le locataire ou d’autres portées si elle a été clairement autorisée par le locataire.
  • Des étapes supplémentaires peuvent être configurées dans le pipeline comme un environnement bêta si le contexte est nécessaire.
  • Le locataire peut être averti par e-mail pendant que le processus est terminé et que les données sont accessibles.

Visualisations numériques des produits

  • en créant des Prototype Produit Textile,
  • en numérisant les tissus proposés par les fournisseurs
  • en numérisant des vêtements : ce qui permet aux marques de visualiser les vêtements qu’elles souhaitent produire via cette interface.

Évolutivité et automatisation

L’objectif principal du projet est de cibler les opportunités d’affaires grâce à un service innovant. C’est pour cela qu’il a été pensé évolutif dans le temps. 

Exemple de stratégie CI / CD sur AWS :

exemple stratégie CI CD AWS

Par ailleurs, si la plateforme est utilisée par de nombreux utilisateurs et génère, par conséquent, un trafic important, elle est capable d’adapter son infrastructure (en augmentant les instances) pour s’adapter à la nouvelle demande requise. Idem lorsque le trafic diminue.

Grâce à ce processus, le coût de l’infrastructure est directement impacté.

FBD Model Plateforme AWS scalable

Pour Fitizzy et premaccess, FBD BModel a été une excellente opportunité :

  • de gérer un ensemble de données volumineux et complexes,
  • d’utiliser les technologies de pointe disponibles sur le marché, de créer une application évolutive ambitieuse tout en maximisant les coûts.
  • de travailler avec différents types d’acteurs européens 

Ce projet européen doit s’achever en 2021. Mais la technologie développée n’en est qu’à ses débuts. Affaire à suivre donc… 

Quels sont les partenaires du projet FBD BModel ?

L’ENSAIT (École Nationale Supérieure des Arts et Industries Textiles)
The University of Manchester
University of Borås
Center for Management Research of Deutsche Institute für Textilund
Faserforschung Denkendorf (DITF) : Centre de recherche en gestion des instituts allemands de recherche sur le textile et les fibres Denkendorf
Grado Zero Espace : PME italienne de conception et de prototypage)
Bivolino : fabricant belge de vêtements, spécialisé dans les chemises sur mesure.
Desap System Solutions Limited : société de développement d’applications mobiles et de solutions technologiques.
Fitizzy : solution de recommandation de taille omnicanale.
Azadora S.r.l. : créateur de collections de vêtements moderne, technologique et polyvalent en contact étroit avec les grandes maisons de couture italiennes et internationales. 
Kuvera S.p.a. : fabricant d’accessoires de mode.
Beste S.p.a. : manufacture textile.
BeWARRANT : société de conseil en finance d’entreprise.

PoC Prototype MVP Startup investissement nouvelle levée de fonds accompagner la création

« Comment développer un produit en un temps record et avec un budget limité ? » Toutes les startups en quête d’investisseurs se posent cette même question. Cela est logique, car les financeurs veulent juger la pertinence et le potentiel de votre offre avant de s’engager.

Pour tenter de convaincre, les porteurs de projets doivent être en capacité de présenter leur produit, leur proposition de valeur et leur intérêt technologique rapidement, à leurs potentiels investisseurs. Mais également à leurs utilisateurs, car leurs besoins évoluent très vite.

Fini le temps où les équipes travaillaient pendant des mois sur un projet afin de sortir une seule version aboutie. Désormais, le développement continu prime. Et ce, afin de coller au plus près des besoins des utilisateurs.

Lors de leur recherche de levée de fonds, les startups ne doivent pas penser leur nouvelle solution dans sa globalité. Cela leur demanderait trop de temps. Elles doivent se concentrer d’abord sur les fonctions essentielles à développer pour leurs cibles, les « Killer features » disent les product owners. Les product owners sont des experts de la méthodologie agile. Ils font le lien entre la partie métier et la partie technique du projet.

Une fois développées, ces fonctionnalités sont mises sur le marché, testées, étoffées, améliorées pour aboutir au produit final.

graphique poc mvp production application projets innovants projet de création

Cette méthode est aujourd’hui prisée lors du développement d’applications. Elle comprend deux temps :

  • La validation de votre concept avec un PoC, « Proof of Concept » (« preuve de concept ») et la création d’un prototype,
  • La réalisation d’un MVP, « Minimum Viable Product » (« produit minimum viable »).

Voyons ensemble ce qu’impliquent ces deux étapes tant pour les jeunes pousses que pour les grands groupes d’ailleurs.

1. Le PoC et le prototype pour valider votre idée

Lors de cette étape, votre idée est analysée. Premier objectif : tester une idée, la confronter au marché, aux concurrents et aux consommateurs afin de voir si elle répond à un besoin, à une opportunité. Est-elle réalisable d’un point de vue marketing, technique et économique ? Est-ce un projet innovant ?

Une fois que le projet est estimé réalisable, il s’agit d’encadrer son développement : réalisation d’un cahier de charges précis, création de wireframes (maquette fonctionnelle du produit)  et de mock-up (représentation esthétique du produit).

Wireframe Adobe XD lean canvas gestion de projet créer une application responsive cahier des charges

Vient ensuite la création d’un prototype. Le prototype répond à la question : « À quoi ressemble notre solution ? ». Lors du développement d’applications, nous distinguons deux types de prototypage :

  • Le prototype horizontal : il présente uniquement l’interface de la solution. C’est une maquette statique. Seuls l’agencement général et les éléments de l’interface sont présentés : boutons, menus, champs de saisie, etc.
  • Le prototype vertical : il met en œuvre des fonctionnalités simplifiées afin que l’utilisateur puisse dérouler un scénario d’utilisation typique.
interface utilisateur apps conception d'une application mobile ergonomie framework e-commerce application métier

Le prototype permet :

  • de vérifier que le produit qui sera développé en MVP respectera les règles d’usage en termes d’UX (User Experience),
  • d’estimer le temps de développement.

2. Le MVP pour tester rapidement votre offre

Selon Eric Ries, auteur de l’ouvrage « The Lean Startup », « le MVP (« minimum viable product ») est la première version d’un nouveau produit qui permet à une équipe de collecter auprès de beta-utilisateurs le maximum d’enseignements validés, et ce avec un minimum d’efforts ».

Le MVP est un produit fonctionnel. C’est une première version de votre produit, contenant les fonctionnalités principales, celles qui répondent directement aux besoins de votre cible. Lors de cette étape, certaines fonctionnalités considérées comme non essentielles sont mises de côté. Elles seront développées plus tard, si le MVP est validé.

MVP minimum viable product application startup porteur de projet entreprises innovantes

Une fois le prototype réalisé, ce produit « simplifié » est donc développé afin d’être rapidement mis sur le marché. Objectif : soumettre votre projet à une audience cible. Vient ensuite la phase de recueil de commentaires auprès des utilisateurs pour le valider, puis l’étoffer en mode itératif.

Une fois que le MVP est validé avec l’ensemble de fonctionnalités minimales, de nouvelles fonctionnalités peuvent alors être ajoutées en utilisant la progression naturelle du PoC, du Prototype, puis du MVP. Nous travaillons ainsi en méthode agile.

  • Le PoC pour tester que ces fonctionnalités répondront bien à un besoin.
  • Le MVP pour confirmer nos idées auprès de notre cible et de nos futurs clients.

La phase MVP peut avoir une durée indéfinie en raison de sa nature itérative. De manière générale, une startup doit compter environ une année pour obtenir une version stable et définitive de son produit. Et concrétiser ainsi une idée dédiée à l’innovation.

PoC, Prototype, MVP : les avantages pour une start-up

Vous réduisez vos risques d’échecs : de manière générale, les dirigeants ont du mal à conceptualiser ce qu’ils veulent. Lors de projets menés via une méthode en cascade, ces derniers sont très souvent déçus, car le produit final n’est pas celui attendu. La déception est d’autant plus grande qu’il faut réinvestir de l’argent pour modifier à nouveau le produit. En créant un MVP, cela leur permet de visualiser le résultat et de l’affiner. Vous réduisez ainsi vos risques d’échec, car vous testez votre offre auprès de vos clients et vous vous assurez d’aller dans la bonne voie technologique.

Vous dépensez moins au lancement du projet : produire un MVP vous coûte bien moins cher que de créer un produit « one-shot ». Pourquoi ? Car, vous créez vos fonctionnalités au fur et mesure au lieu de créer un produit avec une multitude de fonctionnalités qui, une fois sur deux, ne seront pas utilisées par vos utilisateurs. Vous développez vos technologies innovantes pas à pas. De plus, cela a le mérite de forcer le dirigeant à synthétiser son offre, à définir quelle est sa vraie valeur ajoutée.

avantages poc prototype mvp application startup développeur ios projets agiles projet informatiques équipes agiles

Vous gagnerez du temps, car, dans cette démarche, il est plus rapide de produire un MVP que de développer en une seule fois un important logiciel avec pléthores de fonctionnalités.

Vous testez et ajustez votre offre auprès de vos utilisateurs. Vous êtes donc plus en alerte de nouveaux business-model.

Les maîtres-mots : innover rapidement dans la Tech et accélérer sa croissance.

Vous avez un aperçu de vos dépenses : enfin, l’équipe de premaccess conseillent à ses clients de déployer leur offre sur AWS, car ce cloud provider permet de créer des applications facilement en microservices (serverless). Par ailleurs, il permet d’avoir un aperçu sur vos dépenses : vous payez uniquement les ressources que vous consommez. Ce qui peut s’avérer stratégique en début de projet. Il n’y a plus d’infrastructure complexe à payer même si elle ne sert pas.

PoC, Prototype, MVP : l’accompagnement personnalisé de premaccess

premaccess conseille les startup lors de développements d’applications ou de solutions SaaS en serverless. Nous recommandons cette méthode « PoC / Prototype / MVP » à de nombreux clients. Mais avant de l’adopter avec une start-up, nous vérifions que :

  • cette démarche est en adéquation avec la réalité de votre entreprise et de votre projet,
  • le produit réalisé en MVP sera commercialisable,
  • le développement d’un MVP est financièrement possible pour l’entreprise.

Une fois que ces pré-requis seront validés, nous l’accompagnons pas à pas du PoC au MVP, et du MVP au produit final. Et nous mettons à sa disposition nos pattern librairies afin de gagner encore plus de temps lors du développement.

Qu’est-ce qu’un PoC (« Proof of Concept ») ?

Une preuve de concept (de l’anglais : proof of conceptPOC) a pour vocation de montrer la faisabilité d’un procédé ou d’une innovation.

Qu’est-ce qu’un MVP (« Minium viable product ») ?


Le produit minimum viable (ou MVP en anglais, « minimum viable product ») permet d’obtenir un maximum de retours client avec une version simplifiée du produit. Son intérêt : évaluer la viabilité du produit sur le marché.

Qu’est-ce qu’un accélérateur de start-ups ?

Un accélérateur est un programme d’accompagnement dynamique, d’une durée de quelques mois, qui aide les entrepreneurs à développer leur projet en phase d’amorçage. Il permet à une équipe de porteurs de projets de passer rapidement de l’idée au marché jusqu’à une première levée de fonds.

Les différents types de financements d’une start-up française

1. Fonds pour démarrer : Love Money / Prêt d’honneur / Concours d’innovation / Concours startup / Aides publiques / Incubateurs
2. Mise sur l’innovation : Business-angel / Crowdfunding / Fond d’amorçage
3. Formiser, structurer, concrétiser les idées : Capital Risque, Capital innovation.
4. Accélérer le développement : Capital développement

aws video streaming live console amazon cloud aws amazon contrat client machines virtuelles bases de données

Depuis 2019, My Tour Live vous propose des visites guidées à distance, comme si vous y étiez. Misant sur la vidéo 360° et sur l’interactivité, ce service est aujourd’hui prisé par des secteurs B2B comme l’immobilier, et B2C comme la culture. 

Un an après son lancement, My Tour Live a migré de Google Cloud vers AWS, épaulé par premaccess. Son objectif : s’ouvrir à un marché international encore plus large en touchant notamment la Chine (ce qui n’est pas le cas avec Google Cloud) et disposer d’une infrastructure cloud scalable grâce aux microservices d’AWS. Franck Adraï, son fondateur, revient sur la genèse du projet, et sur les atouts de cette innovation.

Comment est née My Tour Live ?

Franck Adraï, fondateur de l'application My Tour Live (video streaming 360 aws services web)

J’étais encore en expatriation en Polynésie française, à Tahiti, quand l’idée de My Tour Live est née. Nous étions en 2017. Je préparais mon retour en France métropolitaine. Et je me demandais comment accéder à la visite de lieu en étant éloigné. De manière inconsciente ou consciente, l’éloignement de Tahiti, la difficulté d’accès… m’ont poussé à réfléchir à ce projet.

À cette époque-là, Facebook Live et les lives streaming existaient déjà. Et nous parlions déjà de vidéos 360°. Les internautes pouvaient interagir lors des lives streaming, mais pas devant une vidéo 360°.

À mon retour en France, j’ai suivi un Executive MBA à Lausanne. Durant cette formation, j’ai affiné cette idée. Et j’ai créé My Tour Live en 2018.

En quoi My Tour Live est-il aujourd’hui un service novateur ?

Cette application est une combinaison de 5 facteurs : la caméra action, l’immersion de l’internaute/visiteur à 360°, l’accès à un lieu à distance, le live streaming et l’interaction avec le présentateur/guide. 

plateforme de streaming sécurisée diffusion de contenu video recorder  service web authentification
mytourlive video à la demande aws service cloud media services

Aujourd’hui, votre solution est prisée par des secteurs du B2B et du B2C.

En effet, côté B2B, nous touchons le secteur de l’immobilier. Avec le confinement, il a été impossible pour les agences immobilières d’organiser des visites de biens. Avec My Tour Live, plusieurs d’entre elles ont permis à leurs clients de visiter des logements à distance tout en répondant à leurs questions en temps réel. 

Côté tourisme, l’hôtellerie s’intéresse à notre application à des fins de promotion et d’aide à la vente. Quoi de mieux qu’une visite immersive pour présenter ses structures d’accueil à distance et pour donner envie ?

En B2C, la solution plaît aux entreprises culturelles comme les musées et les offices de tourisme qui y voient un moyen de promouvoir une destination (en donnant un avant-goût) et de développer leurs offres de visites guidées. Nous travaillons notamment avec le Musée Ziem, à Martigues, sur ce type de services. Lors de ces visites, les internautes sont ainsi immergés dans un lieu sans y être, se baladent avec un guide et entrent en interaction avec lui en temps réel, ce qui humanise l’expérience. 

Vous avez sollicité premaccess pour votre migration sur AWS.

La première version de notre application, lancée en 2019, avait été déployée sur Google Cloud. Après un an d’activité, nous avons décidé de basculer sur AWS pour deux raisons : 

1. Google Cloud n’est pas disponible partout dans le monde, et notamment en Chine. Nous souhaitions être présents dans cette région du monde. Ce que nous permet Amazon Web Service. 

2. Par ailleurs, en tant que cloud provider, AWS propose davantage de microservices sur sa plateforme. Ce qui est intéressant quand vous souhaitez scaler progressivement votre business.

Sur ce projet, premaccess nous a épaulé. Hébergée comme nous au sein de Marseille Innovation, son équipe est spécialisée dans les infrastructures cloud, avec une expertise particulière sur AWS, et a une réelle culture start-up. Ce sont de réels atouts pour notre projet.

Lors de votre passage de Google Cloud à AWS, avez-vous reconstruit l’ensemble de votre application ?

Nous n’avons pas refait le travail deux fois, bien sûr. En revanche, nous avons retravaillé des briques et des fonctionnalités en particulier. 

premaccess nous a apporté son expertise et nous a donné les clés d’entrée sur AWS. Sur cette partie, son équipe nous a accompagnés :

  • Lors de la migration depuis GCP avec Firebase et Brightcove vidéo vers les services AWS (Amplify AWS / AWS Media).
  • Lors du développement d’un module fonctionnel de gestion des invitations. La question que nous nous sommes posée : comment faire pour que les invités n’aient accès qu’à cette session et pas une autre ? Se posent ici des interrogations liées à la gestion des droits des utilisateurs. premaccess a géré cette partie en combinant 4 services AWS (Amazon Cognito, AWS IAM, Amplify CLI, Amplify JS) et en générant des fonctions Lambda Trigger.
  • Lors de la migration du service Brightcove vers AWS Elemental pour le streaming vidéo. AWS Elemental MediaLive est un service de traitement vidéo en direct. Il permet de créer des flux vidéo de haute qualité en vue d’une diffusion sur les télévisions et les appareils multiécrans connectés à Internet (télés connectées, tablettes, smartphones…). Il permet la VOD et le Full Live.

Après deux ans d’existence, l’application My Tour Live a prouvé qu’elle répondait à un réel besoin sur le marché. Quels sont vos projets à venir ?

Nous cherchons toujours à améliorer notre plateforme, à ajouter des modules fonctionnels, à migrer d’autres modules externes vers des services existants sur AWS. En clair, nous envisageons d’utiliser de plus en plus les services de ce cloud provider. Objectifs : accroître notre offre et le business de la vidéo 360°.

apps application cloud service de streaming web application

Pour en savoir + sur My Tour Live :

Comment cette application propose-t-elle, sur AWS, un service de vidéos en streaming ?

My Tour Live est une combinaison de 5 facteurs : la caméra action, l’immersion de l’internaute/visiteur à 360°, l’accès à un lieu à distance, le live streaming et l’interaction avec le présentateur/guide. 

Quelles sont les solutions disponibles pour traiter du contenu vidéo à la demande sur AWS ?

Amazon Web Services (AWS) propose deux solutions multimédias permettant de fournir aux publics à travers le monde du contenu vidéo à la demande (VOD) à des coûts avantageux à l’aide du Cloud AWS : Video on Demand on AWS Foundation et Video on Demand on AWS.
Pour en savoir + : https://aws.amazon.com/fr/solutions/implementations/video-on-demand-on-aws/

AWS Elemental Media Live, service de traitement vidéo

Ce service encode vos flux vidéo en direct en temps réel, en utilisant une source vidéo en direct de grande taille et en la compressant en des versions plus petites en vue d’une diffusion à vos utilisateurs. Avec AWS Elemental MediaLive, vous pouvez facilement configurer des flux pour des événements en direct et des canaux fonctionnant 24 h sur 24 et 7 j sur 7, en profitant de fonctionnalités de diffusion avancées, d’une haute disponibilité et d’une tarification à l’utilisation.
Pour en savoir + : https://aws.amazon.com/fr/medialive/

aws re:invent recapitulatif 2020

Depuis le 30 novembre et jusqu’au 18 décembre, AWS re:Invent 2020 se déroule 100% en ligne. Entre les conférences, les leadership sessions, et les ateliers, il y a eu pléthores d’annonces et de nouveaux services présentés. Vous les avez ratés ?!
Voici les essentiels !

Le programme re:invent 2020

https://www.premaccess.com/aws-reinvent-2020-les-rendez-vous-a-ne-pas-manquer-en-anglais-en-francais/

Pre-re:Invent 2020

AWS Network Firewall, un nouveau service de pare-feu réseau géré à haute disponibilité pour votre cloud privé virtuel (VPC) 

Il permet de déployer et de gérer facilement l’inspection, la prévention et la détection des intrusions. Il s’adapte automatiquement à votre trafic, garantissant une haute disponibilité sans investissement client supplémentaire dans l’infrastructure de sécurité.

Avec ce service, vous pouvez mettre en œuvre des règles personnalisées pour empêcher vos VPC d’accéder à des domaines non autorisés, pour bloquer des adresses IP ou pour identifier une activité malveillante. AWS Network Firewall rend l’activité du pare-feu visible en temps réel via les métriques CloudWatch.

https://amzn.to/3pF0igJ

Amazon S3 Storage Lens, solution d’analyse du stockage dans le cloud

Elle vous permet d’avoir une visibilité sur le stockage d’objet à l’échelle de votre organisation. 

Cet outil combine plusieurs jeux de données afin de vous aider à découvrir des anomalies, à identifier les économies de coûts à réaliser et à appliquer les meilleures pratiques en matière de protection des données. 

Via ses tableaux de bord, vous visualisez facilement les recommandations exploitables. https://amzn.to/3ffw3Z5

AWS Backup, sauvegarde entre comptes

À l’aide d’AWS Backup, vous pouvez sauvegarder sur plusieurs comptes AWS à la demande ou automatiquement dans le cadre d’un plan de sauvegarde planifié. La sauvegarde entre comptes est précieuse. 

Cette documentation vous explique pas à pas comment les réaliser avec AWSBackup (comment créer un coffre-fort de sauvegarde, attribuer une clé principale client…).

https://amzn.to/3kKUIpp

Network Load Balancer prend désormais en charge la version 6 du protocole Internet (IPv6)

Avec cette nouvelle fonctionnalité, vous pouvez prendre en charge les connexions clients IPv6 sans modifier votre application. Votre Network Load Balancer convertit de manière transparente le trafic IPv6 en trafic IPv4 avant de l’acheminer vers les cibles backend.

https://amzn.to/2Jfpyt8

La version 2 du moteur de requêtes d’Amazon Athena est désormais disponible 

Cette nouvelle version comporte plusieurs améliorations de performances et nouvelles fonctionnalités comme :

  • les requêtes fédérées, 
  • la prise en charge de l’évolution des schémas, 
  • les fonctions géospatiales supplémentaires, 
  • la prise en charge de la lecture des schémas imbriqués afin de réduire les coûts
  • et les améliorations de performances pour les opérations JOIN, ORDER BY et AGGREGATE.

https://amzn.to/3makJjp

Vous pouvez désormais utiliser un langage de requête compatible SQL pour interroger, insérer, mettre à jour et supprimer des données de table dans Amazon DynamoDB

PartiQL est un langage de requête compatible SQL. Il facilite l’interaction avec DynamoDB et l’exécution de requêtes dans AWS Management Console. 

https://amzn.to/3m7cV1W

Modules pour AWS CloudFormation

Pour simplifier votre gestion des ressources à travers AWS CloudFormation, vous pouvez désormais utiliser les modules. 

Les modules sont des blocs de construction réutilisables. Ils simplifient l’utilisation des ressources spécifiques dont vous avez besoin tout en maintenant les configurations de ressources alignées sur les meilleures pratiques organisationnelles. 

https://amzn.to/3m8B349

CodeSigning

Avec ce service, vous pouvez désormais vous assurer que seul du code approuvé et vérifié est déployé dans vos fonctions AWSLambda.

La signature de code est une technique utilisée pour confirmer que le code provient d’un éditeur de confiance.

Code Signing aide les administrateurs à faire en sorte que seuls les packages de code signé d’éditeurs de confiance s’exécutent dans leurs fonctions Lambda

et que le code n’a pas été modifié ou falsifié depuis la signature. https://amzn.to/3lgP6DT

Re:invent 2020 – Semaine 1 – 30 nov. – 4 déc.

Instance Amazon EC2 pour macOS

Nous pouvons désormais utiliser des instances Mac Amazon EC2 pour créer et tester des applications macOS, iOS, ipadOS, tvOS et watchOS 

Ces instances disposent d’un processeur Intel Core i7 (Coffee Lake) à 6 cœurs de 8e génération.

Du côté du réseau, elles s’exécutent dans un Virtual Private Cloud (VPC).

https://amzn.to/3lq0Q72

AWS Lambda prend désormais en charge jusqu’à 10 Go de mémoire

Nous pouvons désormais allouer jusqu’à 10 Go de mémoire à une fonction Lambda. 

C’une augmentation de plus de 3 fois par rapport aux limites précédentes. 

Lambda alloue le processeur et les autres ressources de manière linéaire proportionnellement à la quantité de mémoire configurée. Cela signifie que nous pouvons désormais avoir accès à jusqu’à 6 processeurs virtuels dans chaque environnement d’exécution. 

https://amzn.to/37vOuFc

AWS Lambda fait passer la granularité de la facturation de la durée de 100 ms à 1 ms

Une bonne nouvelle pour notre portefeuille ! AWS Lambda réduit la granularité de facturation pour la durée de la fonction Lambda de 100 ms à 1 ms.  Cela va baisser le prix de la plupart des fonctions Lambda, plus encore des fonctions de courte durée. 

Ainsi, leur durée de calcul va être facturée par incréments de 1 ms au lieu d’être arrondie à l’incrément de 100 ms le plus proche par appel.

https://amzn.to/3mzCN6N

Présentation de la prochaine version d’Amazon Aurora Serverless en avant-première

Cette nouvelle version offre la possibilité de faire évoluer les charges de travail de base de données vers des centaines de milliers de transactions en une fraction de seconde. 

https://amzn.to/33SGhKD

AWS Lambda prend désormais en charge les images de conteneur en tant que format d’emballage

Avec le service Container Image Support, nous pouvons désormais déployer des fonctions AWS Lambda sous la forme d’image de conteneur d’une capacité maximale de 10 Go.

https://amzn.to/3qvJNnV

Présentation d’Amazon QuickSight Q: posez des questions sur vos données et obtenez des réponses en quelques secondes

Jusqu’à présent, QuickSight permettait aux entreprises de créer et analyser des visualisations de leurs données client en quelques minutes. 

La nouvelle fonctionnalité de ce service « Amazon QuickSight Q », basée sur le machine learning, utilise le traitement du langage naturel pour répondre instantanément aux questions de votre entreprise. Elle est optimisée pour comprendre le langage commercial que vous utilisez quotidiennement dans le cadre de votre travail. 

Ainsi, les utilisateurs peuvent saisir simplement des questions comme « Quel est notre taux de croissance d’une année sur l’autre ?» et obtenir une réponse instantanée sous forme de visualisation. 

https://amzn.to/3lzm2HL

Amazon Monitron, un service simple et économique permettant une maintenance prédictive

Ce nouveau service propose un système de #surveillance des machines de bout en bout pour détecter les anomalies et comportements anormaux. 

Basé sur le machine learning, il peut notamment prédire quand les équipements industriels nécessiteront une maintenance 

https://amzn.to/39ALPNc

Amazon CodeGuru Reviewer annonce des détecteurs de sécurité pour aider à améliorer la sécurité du code

Amazon CodeGuru Reviewer nous aide à identifier les risques de sécurité en recherchant les problèmes critiques, et en soumettant des recommandations pour les corriger.

C’est une fonctionnalité supplémentaire à CodeGuru. Rappelons-le : AmazonCodeGuru est un outil de développement basé sur le machine learning qui fournit des recommandations intelligentes pour améliorer la qualité du code et identifier les lignes de code les plus coûteuses des #applications. 

https://amzn.to/3lEwUE1

Amazon EKS prend désormais en charge la création et la gestion d’instances Spot Amazon Elastic Compute Cloud (Amazon EC2)

Cela vous permet de profiter des économies considérables qu’offrent les instances Spot pour les charges de travail s’exécutant dans votre cluster Kubernetes.

https://amzn.to/3g2y5fv

Présentation de nouveaux volumes à usage général Amazon EBS, GP3

Amazon Elastic Block Store (EBS) est un service de stockage hautes performances et facile à utiliser, conçu pour être utilisé avec les instances Amazon EC2.

Sur ce service, nous pouvons désormais utiliser un nouveau type de volume SSD EBS, gp3. 

gp3 est idéal pour les applications qui nécessitent des performances élevées à faible coût telles que MySQL, Cassandra, les bureaux virtuels…

https://amzn.to/36z2lLI

AWS Amplify annonce une nouvelle interface utilisateur d’administration

Découvrez ses nouvelles fonctionnalités https://amzn.to/3lBSh92

Re:invent 2020 – Semaine 2 – 7 au 11 déc.

Présentation d’Amazon SageMaker Pipelines, premier service CI / CD spécialement conçu pour l’apprentissage automatique

Avis aux développeurs et aux scientifiques spécialistes de machinelearning : AWS apporte une brique supplémentaire à Amazon SageMaker avec Amazon SageMaker Pipelines. SageMaker Pipelines est le premier service CI/CD spécialement conçu pour l’apprentissage automatique. Il permet automatiser et d’orchestrer des flux de travail #ML.

Il propose, par ailleurs (et cela n’est pas négligeable !), les meilleures pratiques DevOps appliquées à l’apprentissage automatique MLOps. 

https://amzn.to/373uT09

Présentation d’Amazon HealthLake

Avec Amazon HealthLake, AWS fait un pas de + dans le secteur de la santé. Son objectif : aider les professionnels à utiliser efficacement l’ensemble des données pour prendre les meilleures décisions en matière de soin.

Les médecins, l’assurance maladie, les pharmacies… collectent des quantités d’infos sur les patients (antécédents, observations cliniques, diagnostics, médicaments). Actuellement, ces données sont réparties sur une multitude de systèmes (dossiers médicaux électroniques, systèmes de laboratoire, etc.) et existent dans des dizaines de formats incompatibles. Pas simple donc.


HealthLake supprime cette lourde tâche d’organisation des données sur chaque patient. Il agrège ces infos à partir de différents silos et formats dans un lac de données AWS centralisé. Il utilise des modèles de machine learning pour normaliser ces données et extraire automatiquement des informations médicales significatives. De quoi mieux diagnostiquer.

https://amzn.to/33YLkco

Amazon Kendra ajoute un connecteur #GoogleDrive

Le  service de recherche intelligente basé sur l’apprentissage automatique Amazon Kendra ajoute désormais un connecteur #GoogleDrive.

Avec AWS, il n’y a pas de frontière. Vous pouvez aller chercher vos données n’importe où ! Objectif : rester ouvert !

https://amzn.to/2VZkDjh

Présentation d’Amazon SageMaker Data Wrangler

La plupart des modèles #ML demandent beaucoup de temps pour agréger des données. Et bien, ce temps est bien révolu grâce à un nouveau service que nous avons découvert la semaine dernière.

Amazon SageMaker Data Wrangler réduit ce temps nécessaire de plusieurs semaines à quelques minutes. Il simplifie le processus de préparation des données et d’ingénierie des fonctionnalités.

À l’aide de son outil de sélection, nous pouvons choisir les datas que l’on souhaite à partir de diverses sources #AmazonS3, #Athena, #Redshift, #LakeFormation… et les importer en un seul clic. 

https://amzn.to/3m2lB91

Zoom sur la conformité avec AWS Audit Manager

Le nouveau service AWS Audit Manager nous aide à auditer en permanence notre utilisation d’#AWS pour savoir si nos systèmes sont conformes aux réglementations et aux normes : #rgpd, #securité, #paiementenligne.

https://amzn.to/3gvB28J

AWS Security Hub s’intègre à AWS Audit Manager

Security Hub nous donne une vue complète de nos alertes de sécurité. Il regroupe nos alertes ou résultats de sécurité provenant de plusieurs services AWS, comme #GuardDuty, #Inspector et #Macie…

https://amzn.to/33Xqc6a

Présentation d’Amazon Redshift ML

Vous pouvez désormais créer, entraîner et déployer des modèles de machine learning dans Amazon Redshift à l’aide de SQL. Cela est possible avec Amazon Redshift ML.

Ce nouveau service a de nombreux avantages :

Il vous permet de créer et de former des modèles ML avec de simples commandes SQL sans avoir à apprendre des outils externes.

Il offre la flexibilité d’utiliser la sélection automatique d’algorithmes.

Il permet aux experts en #ML tels que les #datascientists de sélectionner des algorithmes tels que #XGBoost et de spécifier des #hyperparamètres et des #préprocesseurs.

https://amzn.to/2K4IoDT

3 nouvelles fonctionnalités pour CodeGuru

Prise en charge de Python > Vous pouvez désormais utiliser CodeGuru pour améliorer les applications écrites en Python

Détecteurs de sécurité pour CodeGuru Reviewer > Pour identifier les vulnérabilités de sécurité et vérifier les meilleures pratiques de sécurité dans votre code Java

Profilage de la mémoire pour CodeGuru Profiler > Pour optimiser la façon dont votre application utilise la mémoire.

https://amzn.to/37Rz0vr

Re:invent 2020 – Semaine 3 – 14 au 18 déc.

AWS CloudShell

AWS CloudShell permet d’accéder en ligne de commande aux ressources et outils #AWS directement à partir d’un navigateur.

Avec CloudShell, nous pouvons exécuter rapidement des scripts avec l’AWS Command Line Interface (AWS CLI), expérimenter les API de service AWS à l’aide des kits SDK AWS…

https://amzn.to/2KdzfZZ

Amazon Managed Service for Grafana

Ce service facilite la création d’espaces de travail Grafana à la demande, pour visualiser et analyser votre données provenant de sources multiples.

Grafana est l’une des technologies open source les plus populaires utilisées pour créer des tableaux de bord d’observabilité pour des applications. 

https://amzn.to/3ns4hvJ

Plus d’infos sur re:Invent, rendez-vous :

Qu’est-ce que AWS Re:invent ?

AWS re:Invent est un évènement organisé par Amazon Web Services (AWS) pour la communauté mondiale du cloud computing. L’événement comprend des annonces, des lancements, des sessions et plus encore.

Quand se tient AWS re:Invent 2020 ?

AWS re:Invent 2020 est présenté sur trois semaines, du 30 novembre au 18 décembre 2020. Découvrez l’agenda : https://reinvent.awsevents.com/agenda/

programme aws re:invent 2020

Nous pouvons le dire : cette année, la conférence des partenaires d’AWS se réinvente. Pendant trois semaines, du 30 novembre au 18 décembre, AWS re:Invent 2020 vous propose d’assister à des conférences et ateliers tranquillement depuis votre bureau ou canapé. L’ensemble de ces rendez-vous sera disponible en ligne, entièrement gratuitement.

Voici les keynotes attendues :

  • Mercredi 2/12 – 9h (CET / GMT +1) – Keynote générale, par Andy Jassy, CEO d’AWS.
  • Jeudi 3/12 – 9h (CET / GMT +1) – Keynote partenaires, par Doug Yeum, head of Worldwide Channels and Alliances; Sandy Carter, VP Global Public Sector Partners & Programs; et Dave McCann, VP AWS Migration, Marketplace, & Control Services.
  • Mercredi 9/12 – 9h (CET / GMT +1) – Keynote Apprentissage Automatique et Intelligence Artificielle, par Swami Sivasubramanian, VP Amazon Machine Learning.
  • Vendredi 11/12 – 9h (CET / GMT +1) – Keynote Infrastructure, par Peter DeSantis, SVP Global Infrastructure & Customer Support.
  • Mercredi 16/12 – 9h (CET / GMT +1) – Keynote Architecture, par Dr. Werner Vogels, VP & CTO AWS.
reinvent aws keynote partners

Les Leadership Sessions

19 Leadership Sessions sont également programmées. Ces sessions sont l’occasion d’entendre directement les leaders AWS sur les dernières avancées technologiques d’AWS.

https://reinvent.awsevents.com/leadership-sessions/

reinvent leadership sessions

Les GPS Breakout Sessions

15 sessions en petits groupes, d’une durée de 30 minutes, sont proposées afin que vous puissiez poser vos questions à un panel d’experts. Pensez à vous y inscrire !

  • Naviguez avec succès dans le parcours du partenaire conseil (GPS201)
  • Offrez un lieu de travail numérique sécurisé à vos clients (GPS 202)
  • Modernisation de la base de données avec AWS Consulting Partners (GPS203)
  • Accélérez les migrations avec le programme de migration de la charge de travail ISV (GPS204)
  • Fournir des services professionnels dans un monde COVID-19 (GPS205)
  • Au-delà de l’infrastructure pour stimuler votre activité SAP (GPS206)
  • Comment vendre sur AWS Marketplace (GPS207)
  • Perspectives et inspiration de ceux qui sont sur le chemin de la transformation (GPS208)
  • Modernisez les bases de données et les applications avec le programme Database Freedom pour les éditeurs de logiciels indépendants (GPS209)
  • Co-vente pour les intégrateurs de systèmes (GPS210)
  • Les partenaires AWS stimulent l’innovation avec COVID-19 (GPS211)
  • Co-vente pour les éditeurs de logiciels indépendants (GPS212)
  • Combler le déficit de compétences cloud en créant une main-d’œuvre diversifiée et dynamique (GPS213)
  • Passer au «all-in» – Exploiter tout le potentiel du cloud (GPS214)
  • Comment organiser virtuellement des ateliers clients et des webinaires efficaces (GSP302)

Du contenu en français

Enfin, dans son dernier article de blog, l’expert AWS Sébastien Stormacq nous indique que plusieurs sessions se tiendront en français. En voici quelques-unes :

  • Une application résiliente, dans un monde partiellement dégradé, par Pascal Martin, Bedrock / M6
  • Construire des workflows complexes de calcul avec AWS Step Functions et AWS Fargate, par Roberto Migli, AWS
  • DevSecOps, Inclure la sécurité dans un flux CI/CD, par Dany Poudrier, AWS & Laurent Jalbert-Simard , pokia.io
  • Architecturer sa gouvernance sur AWS : de Zero à Hero, par Walid Benabderrahmane, AWS & Ludovic Tressol, Thales
  • Faire plus avec moins de code en Serverless, par Jérôme Van Der Linden, AWS

Pour en savoir + à ce sujet, rendez-vous sur cet article de blog : https://aws.amazon.com/fr/blogs/france/du-contenu-en-francais-pendant-reinvent-2020/

Plus d’infos sur re:Invent, rendez-vous :

Bon re:Invent à tous !

Qu’est-ce que AWS Re:invent ?

AWS re:Invent est un évènement organisé par Amazon Web Services (AWS) pour la communauté mondiale du cloud computing. L’événement comprend des annonces, des lancements, des sessions et plus encore.

Quand se tient AWS re:Invent 2020 ?

AWS re:Invent 2020 est présenté sur trois semaines, du 30 novembre au 18 décembre 2020. Découvrez l’agenda : https://reinvent.awsevents.com/agenda/

Faut-il s’inscrire pour accéder à cet évènement ?

Oui. En vous inscrivant à re:Invent, vous aurez accès à des keynotes, des sessions de leadership et plus de 500 sessions en petits groupes, ainsi que la possibilité de vous connecter avec des experts AWS, des partenaires et plus encore.

amazon S3 réduire facture lors de téléchargements en plusieurs parties

Depuis plusieurs années, vous avez pu utiliser la fonctionnalité de gestion du cycle de vie de AWS S3 pour contrôler la classe de stockage et la durée de vie de vos objets. 

Depuis mars dernier, une fonctionnalité a été ajoutée à ce service : le téléchargement incomplet d’objet en plusieurs parties. Ce chargement partitionné vous permet de télécharger un objet unique constitué d’un ensemble de parties. Une fois que toutes les parties de cet objet sont chargées, Amazon S3 présente les données comme un seul objet. 

Grâce à cette fonction, vous pouvez gérer des téléchargements en parallèle, mettre en pause et reprendre le chargement d’un objet, mais aussi commencer les chargements avant de connaître la taille totale de l’objet.

Qu’est-ce que le téléchargement incomplet d’objet en plusieurs parties ?

La fonction de téléchargement partitionné d’AWS S3 accélère le transfert d’objets volumineux en vous permettant de les diviser en plusieurs parties logiques qui peuvent être téléchargées en parallèle. 

Si vous lancez un téléchargement en plusieurs parties, mais que vous ne le terminez pas, le téléchargement en cours va occuper de l’espace de stockage et entraînera des frais de stockage. 

Cependant, ces téléchargements ne sont pas visibles lorsque vous répertoriez le contenu d’un bucket. Ils doivent impérativement être supprimés. S’ils ne sont pas supprimés, l’espace de stockage consommé par ces chargements continuera à être facturé.

Comment savoir si un bucket contient des téléchargements partitionnés ?

Voici un petit script qui peut vous aider à trouver quel bucket a des téléchargements en plusieurs parties :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - Téléchargements partitionnés

Ce script donnera une réponse comme celle-ci :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - Téléchargements partitionnés

« True » signifie que ce compartiment a des téléchargements en plusieurs parties. « False » signifie qu’il n’en contient pas.

Comment puis-je obtenir une liste de téléchargements partitionnés ?

Voici un autre script qui vous aidera à obtenir une liste de téléchargements partitionnés :

Comment réduire vos frais Amazon S3 lors de téléchargements en plusieurs parties - Bucket - listes Téléchargements partitionnés

Comment éviter le coût inutile des téléchargements incomplets en plusieurs parties ?

Pour cela, il est possible de configurer un cycle de vie dédié à ces téléchargements. Une fois le temps imparti achevé, ils seront automatiquement supprimés de l’espace de stockage. 

Vous pouvez les configurer à l’aide de l’AWS Management Console, de l’interface de ligne de commande AWS (CLI) ou des outils AWS pour Windows PowerShell.

1. Commencez par ouvrir la console et accédez au bucket souhaité :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

2. Cliquez ensuite sur “Properties”, ouvrez la section “Lifecycle” et cliquez sur “Add rule” :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

3. Choisissez votre cible (le bucket entier ou le sous-ensemble préfixé de votre choix) puis cliquez sur “Configure Rule” :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

4. Activez ensuite la nouvelle règle et sélectionnez la période d’expiration souhaitée :

Amazon S3 - éviter le coût inutile des téléchargements incomplets en plusieurs parties ? - AWS Management Console

Vous souhaitez davantage d’informations sur ce nouveau service AWS, n’hésitez pas à contacter l’équipe de premaccess. Spécialisée dans le cloud d’AWS, elle vous conseillera sur ce sujet. 

Qu’est-ce qu’Amazon S3 ?

Amazon S3 est un stockage d’objets conçu pour stocker des données. C’est un service de stockage simple qui offre une infrastructure de stockage de données extrêmement durable, hautement disponible et infiniment évolutive à des coûts très faibles.

La tarification S3

Lors du choix de la classe de stockage S3 idéale pour votre profil de données, vous devez prendre en compte quatre éléments de coûts : la tarification du stockage, la tarification des requêtes et de l’extraction des données, la tarification du transfert des données et de l’accélération du transfert des données et la tarification des fonctions de gestion des données. Pour en savoir + > https://aws.amazon.com/fr/s3/pricing/

Développement serverless services managés cloud aws

En tant que développeur, notre métier a fortement évolué. Les infrastructures sont passées de serveurs on-premise à des machines virtuelles, et sont maintenant hébergées sur des instances Cloud. Nous parlons désormais de Développement Serverless. Mais le métier de développeur ne s’est pas complexifié pour autant. Bien au contraire. 

Fondamentalement, avec le Cloud, la manière de programmer change pour se consacrer à l’essentiel. La révolution tient dans l’architecture des projets, orientée désormais en microservices. 

Grâce à ces microservices ou plus largement au serverless, vous utilisez du code et des services de base prêts à l’emploi. Vous vous consacrez ainsi uniquement à la valeur ajoutée de votre projet et donc de votre code ainsi que les fonctionnalités associées. De quoi vous faire gagner du temps, assurer la qualité du code, et vous pousser à repenser notre business davantage tourné vers l’innovation. 

Si vous êtes développeurs, ou bien porteurs de projets, découvrez les nombreux avantages qu’offre cette architecture.

Des microservices et un développement Serverless pour …

… Mieux vous concentrer sur le coeur de votre application

Lorsque vous déployez une solution sur un serveur on-premise ou bien sur une machine virtuelle, votre équipe de développeurs se charge de tout coder : les fonctions propres à votre application, ainsi que les fonctions annexes mais essentielles comme la gestion des utilisateurs, la connexion sécurisée aux bases de données, etc. Nous parlons alors d’architecture monolithique.

En revanche, en déployant une solution sur le Cloud en développement serverless, vous pouvez vous concentrer principalement sur les fonctions natives de votre application. Connecté en ligne, vous avez accès à pléthores de services managés pour les fonctions de base. Sur Amazon Web Service, par exemple, une multitude de microservices sont disponibles pour créer une architecture serverless. Ils vous permettent de déployer très rapidement des fonctionnalités universelles comme « IAM » pour gérer la politique de sécurité de vos utilisateurs, « Cognito » pour sécuriser leurs authentifications et gérer vos utilisateurs, « Lex » pour la création de Chatbots, « Simple Email Service » pour l’envoi d’emails depuis votre application, etc.

Il serait bien trop long de tous les énumérer. AWS en crée des dizaines par an. Son catalogue en compte plus d’une centaine autour de thématiques liées au calcul, au stockage de données, à l’analyse, à la sécurité de vos applications, à l’Internet des Objets, au Machine Learning, etc. Découvrez-les ici : https://aws.amazon.com/fr/products/?nc2=h_ql_prod

… Plus d’agilité et vous faire gagner du temps

Clairement, en vous concentrant sur les fonctions natives de votre application et en utilisant ces services managés (service cloud), vous réduisez le temps de développement de vos projets web.

développement serverless plus d’agilité gain de temps application plus évolutive et scalable

Par ailleurs, votre architecture serverless étant découpée en services, vous pouvez répartir la mise en place de chaque fonction entre développeurs. Chacun peut programmer de façon indépendante, sans avoir à connaître la structure du code des autres parties de l’application. Il suffira juste à votre chef de projet de réaliser des tests d’intégrations pour vérifier que tout fonctionne ensemble.

… Rendre votre application plus évolutive

Grâce à ce découpage en microservices, grâce au serverless, vous optimisez l’évolutivité de votre solution. Modifier une fonctionnalité demandera d’intervenir sur un seul service sans avoir à vérifier à nouveau l’ensemble de l’application.

De plus, en utilisant ces services managés, vous accédez plus facilement aux nouvelles fonctionnalités proposées par le Cloud provider. Par exemple, dans le cas où vous utilisez Cognito pour gérer les accès à votre application, vos users se connectaient en premier lieu avec un login et mot de passe. Quand ce service a évolué, vous avez pu mettre en place une double authentification très facilement.

… Et plus scalable

Sur le Cloud, grâce au développement serverless, une entreprise peut mieux ajuster ces besoins dédiés en ressources, qu’ils soient à la hausse ou à la baisse. Ainsi, elle a un meilleur contrôle de sa consommation et ne paie que ce qu’elle consomme en ligne. 

Sur AWS, les services sont managés. L’élasticité de vos applications est assurée automatiquement par le Cloud Provider. Celui-ci ajuste la capacité nécessaire à maintenir à l’instant T en fonction des performances enregistrées. Ainsi, la haute-disponibilité est le maître-mot. Votre application reste disponible de façon optimale même s’il y a des changements brusques de charge de travail.

… Un code de meilleure qualité

développement serverless code de meilleure qualite

Dans le cadre d’un développement serverless, chaque service propose une fonction, et donc un code largement éprouvé et vérifié par les Cloud providers. Ce qui vous assure un code de bonne qualité. 

De plus, votre application étant divisée en micro-modules, la chasse au bug est beaucoup plus facile. La maintenance aussi !

… Avec des outils de supervision intégrés 

Cela étant, cette qualité n’empêche pas la supervision, le monitoring de vos solutions. Sur AWS, « Amazon CloudWatch » permet la surveillance de vos ressources et de vos applications par la collecte de données opérationnelles sous forme de journaux, métriques ou évènements. Objectif : s’assurer de la disponibilités des applications sur votre infrastructure. Et comme nous travaillons en microservices, si l’un d’entre eux est défaillant, si un sinistre survient, nous pourrons le remplacer aisément par un autre. 

… Plus de résilience

L’indépendance de chaque fonction augmente considérablement la résistance de votre application face aux possibles pannes. Si un incident survient sur une des fonctions que vous avez développées (hors services AWS donc), cela ne rendra pas l’application indisponible. Dans ce cas, seule la fonction en question sera interrompue momentanément. 

… Pour réduire les coûts

développement serverless réduction des coûts

Comme le développement serverless fonctionne au paiement à l’usage, vous pouvez parfaitement les tester pour développer de nouvelles offres. Ainsi, vous pouvez voir si cela répond à une demande de vos clients, adapter ou ajuster votre proposition sans que cela ne vous coûte bien trop cher.

Enfin, les développeurs, experts en microservices, mettent bien moins de temps pour créer une application. Le Serverless nécessite donc moins de ressources et de développeurs. Aussi, si vous souhaitez lancer une application rapidement, découvrir les avantages du cloud computing, et adopter ce type d’architecture, entourez-vous de spécialistes. L’équipe de premaccess accompagne de nombreuses entreprises qui ont franchi le cap du serverless (startups, ETI, grandes entreprises)

… Plus d’innovation bien sûr !

Plus généralement, avec les architectures serverless, nous devons réfléchir davantage à la structure de nos applications avant de nous lancer dans leur développement.

Pour tous développeurs, appréhender le Cloud et les microservices impose une nouvelle approche du métier et de la flexibilité. Que dois-je coder moi-même ? Que dois-je programmer à partir d’un service managé ? Comment l’interface est organisée entre ces différentes fonctions ?

Assurément, cette nouvelle architecture réduit considérablement les cycles de développement. Un constat qui doit nous pousser à réinventer nos business, repenser nos valeurs ajoutées et les éléments différenciants qu’apportent nos applications en matière d’innovation. 

En tant que développeur ou chef de projet, si vous souhaitez être accompagné lors de la création d’une application sur le Cloud, n’hésitez pas à contacter l’équipe de premaccess. Elle vous conseillera pas à pas, et vous présentera les atouts des services managés pour rendre votre projet innovant et évolutif.

Serverless, c’est quoi ?

Fondamentalement, dans un environnement Cloud, la manière de programmer change pour se consacrer à l’essentiel. La révolution tient dans l’architecture des projets, orientée désormais en microservices “Serverless”. Grâce à ces microservices ou plus largement au serverless, vous utilisez du code et des services de base prêts à l’emploi. Vous vous consacrez ainsi uniquement à la valeur ajoutée de votre projet et donc de votre code ainsi que les fonctionnalités associées. De quoi vous faire gagner du temps, assurer la qualité du code, et vous pousser à repenser notre business davantage tourné vers l’innovation. 

Les avantages de l’architecture Serverless

Vous vous concentrez sur le coeur de votre application. Votre équipe travaille avec plus d’agilité et gagne du temps. Votre application est plus évolutive, plus scalable. Votre code est de meilleure qualité. Vous réduisez vos coûts.

Le mode de développement serverless

Lorsque vous déployez une solution sur un serveur on-premise ou bien sur une machine virtuelle, votre équipe de développeurs se charge de tout coder : les fonctions propres à votre application, ainsi que les fonctions annexes mais essentielles comme la gestion des utilisateurs, la connexion à la base de données, etc. Nous parlons alors d’architecture monolithique.
En revanche, en déployant une solution sur le Cloud en développement serverless, vous pouvez vous concentrer principalement sur les fonctions natives de votre application.

Développement serverless ou architecture sans serveur

Une architecture sans serveur est un moyen de créer et exécuter des applications et services sans avoir à gérer d’infrastructure. Votre application s’exécute toujours sur des serveurs, mais la gestion des serveurs est effectuée par votre cloud provider (AWS – Amazon Web Services / Google Cloud / Microsoft Azure (appelé Windows Azure jusqu’en 2014…).

comment réduire votre facture sur Amazon S3

Lorsque vous stockez des objets dans le AWS S3, vous ne payez pas seulement pour l’objet stocké, mais vous accédez généralement à ces objets d’une certaine manière.

Si votre compte AWS est relativement récent (moins de 12 mois), vous pourrez probablement bénéficier du volet gratuit. Cela signifie 5 Go de stockage gratuit + 20 000 demandes GET et 2 000 demandes PUT. N’oubliez pas que cette offre expire au bout de 12 mois à compter de la création du compte.

Nous avons 3 éléments dans notre facture pour réduire votre facture AWS S3 : stockage, demande et transfert de données

Stockage des données :

Selon le type de stockage que vous choisissez pour votre Bucket, c’est le prix que vous payez par Go de données stockées. Vous avez 3 types, Standard, Standard-IA (accès peu fréquent) et Glacier et le prix varie en fonction de la région où votre bucket est créé.

Demandes

Il s’agit essentiellement du nombre d’appels effectués à l’API S3 pour récupérer les objets. Le prix dépend du type de requête (les requêtes DELETE sont gratuites), de la région et du type de stockage.

Vous pourriez également voir sur votre facture des choses comme :

  • Amazon Simple Storage Service EU-Requests-Tier1 : Il s’agit des demandes PUT, COPY, POST, ou LIST.
  • Amazon Simple Storage Service EU-Requests-Tier2 (Service de stockage simple Amazon EU-Requests-Tier2) : Ceci est pour les demandes GET et toutes les autres demandes.
  • Amazon Simple Storage Service EU-Requests-Tier3 (Service de stockage simple Amazon EU-Requests-Tier3) : Il s’agit des demandes concernant les glaciers.
  • Amazon Simple Storage Service EU-Requests-Tier4 : Il s’agit du nombre de transitions vers l’accès standard peu fréquent que vous avez demandé.

Transfert de données

Ceci est mesuré en entrée (IN) et en sortie (OUT). La bonne chose est que les données IN sont gratuites. Le transfert OUT dépend de l’endroit et de la manière dont vous envoyez les données. Si vous transférez des données à une autre instance EC2 dans la même région, c’est gratuit. N’oubliez pas d’utiliser les terminaux VPC S3 pour économiser encore plus d’argent.

Vous avez la liste des prix sur le site Amazon S3 ici, attention, elle change très souvent.

Maintenant, comment puis-je mesurer en temps réel combien j’utilise AWS S3 ?

Avec la nouvelle console de gestion S3 (vous devez l’activer dans votre compte AWS), vous avez la liste des buckets.

Reduire facture S3 AWS, selectionnez votre bucket

Lorsque vous sélectionnez l’un d’entre eux, choisissez l’onglet Gestion (Management) en haut de la page.

Reduire facture S3 AWS, Allez dans Management Tab

Reduire facture S3 AWS, Cliquez sur Metrics

Ensuite, choisissez Métriques (Metrics)

Ici, vous pourrez choisir entre Stockage (Storage), Demandes (Requests) ou Transfert de données (Data Transfer). Il convient de préciser que la mesure de stockage est la seule qui soit Gratuite.

Je vous recommande vivement de garder un œil sur vos factures AWS et d’analyser celle-ci via l’outil Cost Explorer, vous trouverez de nombreuses façons d’économiser de l’argent et de recevoir les félicitations de votre patron 😉 !

intelligence artificielle santé IA objets connectés start-up

La santé est un sujet qui nous passionne depuis longtemps chez premaccess et qui, aujourd’hui plus que jamais prend tout son sens. L’humanité dispose aujourd’hui des outils les plus puissants pour répondre aux problématiques qui se posent à nous et pourtant nous sommes vulnérables. 

Alors pour changer un peu d’angle, nous avons concocté une petite liste des innovations en santé que l’on suit de près, car pour nous elles sont représentatives du monde de demain, de celui que l’on veut construire avec vous. Et quand la technologie est un vecteur de sens, ca nous plait ! 

Certaines solutions semblent parfois sorties d’un film de science-fiction et pourtant. Il s’agit bel et bien de solutions concrètes  que l’on peut dès aujourd’hui utiliser ou en cours de développement. 

Si vous voulez un peu plus d’informations sur le fond quand on parle d’Intelligence Artificielle ou de Machine Learning, vous pouvez vous référez à notre article AI et ML la vision de premaccess des services proposés par AWS.

Reste aujourd’hui les questions suivantes que nous souhaiterions résoudre avec vous : 

  • Comment généraliser ces procédés ? 
  • Les faire changer d’échelle et rendre ces technologies accessibles aux plus grands nombres ? 

Vous avez d’autres exemples ? Partagez les avec nous ! 

Des nouvelles molécules chimiques pour la recherche médicamenteuse

offre de soins de santé dossier médical suivi médical paramédical prescription

@Iktos utilise un #algorithme pour imaginer de nouvelles molécules chimiques efficaces dans le cadre de la recherche médicamenteuse. Sa technologie explore #virtuellement l’univers quasi infini de la chimie pour imaginer des nouvelles molécules de #synthèse et prédire leur efficacité.

https://www.lesechos.fr/industrie-services/pharmacie-sante/medicaments-du-futur-iktos-explore-lespace-chimique-grace-a-lia-1182596

Dépistage des maladies du cœur : mesurer instantanément et avec précision le flux sanguin

En comparant les résultats générés par l’#AI avec les dossiers de santé de chaque patient, l’équipe a constaté que les patients dont le flux sanguin était réduit étaient plus à risque de décéder des suites d’une crise cardiaque, d’un #AVC et d’une insuffisance cardiaque.

L’outil s’est révélé pour la première fois capable de prédire quels patients pourraient mourir ou subir des événements indésirables majeurs au niveau cardiovasculaire, mieux qu’un médecin ne pourrait le faire seul avec des approches traditionnelles.

https://www.santemagazine.fr/actualites/actualites-sante/lintelligence-artificielle-peut-aider-a-predire-le-risque-de-crises-cardiaques-et-davc-432130

Prédire la probabilité d’événements d’un choc hémorragique ou d’un traumatisme crânien

L’objectif est de développer des modèles de prédiction et d’élaborer, à terme, une plateforme de services.

Le projet va s’appuyer sur les ressources du registre #Traumabase, nourri par un réseau d’une centaine de médecins urgentistes et anesthésistes-réanimateurs dans toute la France.

Et qui regroupe les données d’hospitalisations et de rémissions de 20 000 admissions pour traumatisme grave en France.

À terme, l’outil #développé et qui utilise l’intelligence artificielle permettra de prédire la probabilité d’événements d’un choc hémorragique ou encore d’un traumatisme crânien, mais aussi d’ajuster la stratégie de soins. 

https://www.lesechos.fr/partenaires/capgemini/e-sante-la-data-et-lia-au-secours-des-patients-atteints-de-traumatismes-graves-1168623

Prédire la progression des maladies neurodégénératives pour mieux prévoir l’évolution des maladies comme la maladie d’Alzheimer

L’#algorithme a été en mesure de détecter les différentes expressions des gènes de ces patients sur des dizaines d’années avec l’analyse des échantillons de sang et de tissus cérébraux post-mortem de 1 969 patients et avec l’aide d’un algorithme d’AI et des techniques de #deeplearning.

https://www.santemagazine.fr/actualites/actualites-sante/une-analyse-sanguine-par-ia-peut-predire-la-progression-des-maladies-neurodegeneratives-431793

Améliorer l’efficacité de l’imagerie médicale et optimiser les flux de patients

Avec comme objectif de raccourcir la durée des examens et à optimiser les flux de patients, tout en assurant une qualité homogène des soins et permet de gérer et d’assurer la maintenance à distance des parcs de scanner, d’IRM ou autres…  

Encore un beau progrès #Healhtech

https://www.lesechos.fr/industrie-services/pharmacie-sante/limagerie-medicale-a-lheure-de-lintelligence-artificielle-1156756

Améliorer la qualité des dossiers médicaux en permettant  aux  professionnels de santé de dicter directement dans le cloud

suivi médical médecin-traitant aide-soignant infirmière médecins spécialistes innovation en santé professionnel de santé

Avec Dragon Medical One, les médecins, les infirmières peuvent désormais documenter les dossiers des patients en mobilité, depuis leur cabinet, à domicile à l’hôpital avec un taux de #disponibilité garanti de 99,5 %.

https://www.hospitalia.fr/Les-professionnels-de-sante-peuvent-dicter-dans-le-Cloud-en-toute-securite-avec-Dragon-Medical-One_a2026.html

Améliorer la confiance, la sécurité et l’auditabilité des données médicales

La technologie blockchain répondrait aux problématiques de confiance, de sécurité et d’auditabilité de ces données, complétant ainsi les offres d’#IA et d’#IoT basées sur ces mêmes données.

Acumen indiquait dans une étude que le marché mondial de la blockchain dans le secteur de la santé devrait croître de 48,1% d’ici 2026 et atteindre plus de 1,7 milliard de dollars.

https://cryptonaute.fr/blockchain-remede-ideal-donnees-de-sante/

Connecter notre cerveau à une machine 

La réponse est oui, après @Neuralink en Juillet sur les rats, Elon Musk envisage les premiers essais humains de son interface #transhumaniste à partir de la fin 2020.

Grâce à un faisceau de « cordons cérébraux » reliés à nos neurones, nous augmenterions nos capacités intellectuelles et serions même capables de contrôler l’#IA afin qu’elle ne finisse pas par prendre le dessus !

Une recherche impressionnante !

https://www.sciencesetavenir.fr/sante/cerveau-et-psy/l-ia-et-l-humanite-cerveau-pourrons-nous-connecter-notre-cerveau-a-une-machine_137653

Se faire opérer sans présence d’un médecin 

technologie de la santé médecine interne bloc opératoire chirurgien soins intensifs

C’est tout fait possible technologiquement parlant. Vous êtes nombreux à comprendre et se dire que la technologie, l’ #intelligenceartificielle ont pu être une grande opportunité de progrès pour leur santé.

Le chemin risque d’être long et compliqué pour développer cette méthode car en France, 78% des patients interrogés n’accepterait pas des diagnostics ou actes de soins entièrement automatisés, sans contrôle humain.

https://www.sciencesetavenir.fr/sante/e-sante/capteurs-connectes-intelligence-artificielle-pas-sans-medecin-disent-les-patients-etude_134531

Détecter le cancer du poumon

Le cancer du poumon est le cancer qui entraîne le plus de mortalité dans le monde. Chaque année, 1,7 million de personnes en décèdent selon les chiffres de l’Organisation Mondiale de la Santé (OMS). Une fois détecté, le pronostic vital est souvent engagé, d’où l’importance de le dépister le plus tôt possible. Pour gagner en précision et en rapidité, l’intelligence artificielle est de plus en plus utilisée dans le domaine de la radiologie. Google a mis au point une IA qui permet de détecter le cancer le plus tôt possible.

https://www.sciencesetavenir.fr/sante/cancer/google-a-lance-une-ia-pour-detecter-le-cancer-du-poumon_134208

Détecter les attaques cardiaques au son de la voix 

Révolution en vue dans les centres d’appel d’urgence !

La technologie de l’#AI fonctionne en arrière-plan des appels d’urgence entrants et capte les mots clés, la langue et les schémas sonores de l’appelant, susceptibles d’indiquer que le patient est en train de faire une attaque cardiaque. Et si l’AI la détecte, une ambulance prioritaire est envoyée.

L’État de Victoria en Australie a annoncé qu’il allait injecter 800.000 euros pour poursuivre le projet.

Bel investissement du gouvernement Australien !

https://www.zdnet.com/article/victoria-to-use-ai-to-detect-heart-attacks-on-emergency-calls/

Collecter plus d’informations par le biais d’un chatbot 

traitement des données informatique et libertés

Le but de la mise en place de Jeanne (Oui le #chatbot s’appelle Jeanne) est d’obtenir le plus d’informations en amont pour que le rendez-vous avec le spécialiste soit le plus efficace dès qu’il a lieu.

Grâce à cela, nous pourrons utiliser au mieux les ressources médicales mais aussi améliorer la personnalisation de l’expérience.

https://www.whatsupdoc-lemag.fr/article/les-patients-acceptent-de-se-livrer-facilement-et-plus-rapidement-avec-des-chatbots

Prélever du sang avec une très grande précision

Des chercheurs américains ont conçu un #prototype de robot capable de trouver et percer une veine de manière précise pour éviter ces inconvénients.

Avec un taux de réussite global de 87% pour les 31 participants dont le sang a été prélevé. Et, pour les 25 personnes dont les veines étaient faciles d’accès, le taux est monté à 97%. A titre de comparaison, les professionnels de santé ont un taux de réussite de 73% chez les patients sans veines visibles et 60% pour les personnes sans veines palpables.

https://www.usine-digitale.fr/article/ce-robot-est-capable-de-prelever-du-sang-avec-une-tres-grande-precision.N927914