Le laboratoire du 21è siècle

Depuis de nombreuses années, la communauté informatique des laboratoires parle du « Labo du futur », du « Lab 4.0 », du « Smart Lab » ou du « Labo du 21ème siècle ». Nous avons entamé ce 21ème siècle depuis un bon moment – alors que s’est-il passé jusqu’à présent ?

Les laboratoires sont passés du papier au format électronique et certains d’entre eux sont passés au laboratoire numérique en mettant en œuvre des flux de travail numérisés. Mais si le laboratoire du 21ème siècle se veut innovant, cela n’est pas pour autant suffisant. Les laboratoires doivent devenir véritablement numérisés (en utilisant les technologies numériques permettant à leur business model d’évoluer). La clé pour une digitalisation pérenne reste la connectivité, elle constitue les fondations solides de nouvelles méthodes de travail.

De nombreuses entreprises ont envisagé – voire testé – les nouvelles technologies qui sont apparues: le cloud computing, les data lakes, l’Internet des objets en laboratoire, l’intelligence artificielle et le machine learning, la réalité virtuelle et augmentée, ou encore l’assistance vocale. Une question demeure : ces technologies sont-elles pertinentes pour le laboratoire du 21ème siècle? Quelle valeur délivrent-elles ?

Seul un environnement numérique permet aux organisations de tirer parti de ces nouvelles technologies avancées et d’avoir un impact sur l’expérience des scientifiques, la productivité en laboratoire et la réutilisation des données grâce à la connectivité des différents systèmes (instruments, équipements…).

 

Connectivité

La connectivité la plus élémentaire dans le laboratoire se situe entre les générateurs de données tels que les instruments ou les applications permettant de capturer/saisir des données et ceux qui les utilisent. Ce sont ces outils qui permettent de créer des rapports ou des documents, qui produisent des analyses et des tableaux de bord. Ils fournissent aussi le stockage sécurisé de nombreuses données cruciales, générées par le laboratoire.

Toutefois, les opérations de laboratoire englobent plus que cela, et il nous faut aller au-delà de la connectivité.

Les systèmes de gestion des échantillons et des produits chimiques, ainsi que l’équipement et le personnel font aussi partie de l’environnement du laboratoire. Cela comprend des processus tels que le développement de méthodes de travail et leur exécution, la préparation d’échantillons et d’expériences, l’analyse, le reporting et la prise de décision. Ces systèmes doivent être capables de communiquer de manière bidirectionnelle avec les autres systèmes mis en place, par exemple avec des ERP. Cela peut sembler complexe d’intégrer tous ces éléments, mais les avantages qui en découlent sont considérables.

Le laboratoire du 21ème siècle doit permettre aux données de circuler librement en connectant les processus, les ressources et les personnes via une infrastructure.

 

Conditions préalables

Que faut-il pour mettre en place cette connectivité ? La base se doit d’être constituée d’une infrastructure issue d’une plateforme, compatible avec le cloud pour assurer une manière collaborative et agile de travailler avec total cost of ownership (TCO) faible et qui peut tirer parti d’un data lake pour assurer le stockage de nombreuses données sur le long terme. Mais la technologie ne suffit pas. La standardisation est essentielle. Et différents aspects de celle-ci doivent être pris en compte.

Un des aspects de la standardisation est le format réel des données et la présence d’un cadre normalisé. Un format de données standard doit définir les spécifications d’un format indépendant du fournisseur et de la technique pour stocker les données et les métadonnées contextuelles afin de permettre un accès à long terme et en temps réel aux données. La standardisation des taxonomies et des ontologies permet un vocabulaire et des relations contrôlés pour les métadonnées contextuelles sur le matériel, l’équipement, le processus, les résultats et les propriétés. Le résultat des travaux de consortiums tels que Allotrope et l’Alliance Pistoia peut être utile.

L’autre aspect est l’intendance et la gouvernance de la gestion et de la normalisation des données. L’organisation doit s’assurer que les normes définies sont mises en place dans tous les laboratoires. Cela n’est peut-être pas toujours facile car certains scientifiques pourraient le percevoir comme un fardeau supplémentaire, réduisant leurs marges de manœuvre, plutôt que de chercher à comprendre la valeur de l’open science, celle qui permet d’interagir, d’accéder et de comprendre les résultats scientifiques de chacun.

Enfin, les laboratoires doivent s’assurer que leurs données scientifiques sont « FAIR » (Findable, Accessible, Interoprable, Re-usable). Les principes de données « FAIR » agissent comme une ligne directrice pour soutenir la mise en œuvre de la technologie.

La valeur de la connectivité :

  • Améliore la fluctuation des données et le flux d’informations entre les personnes et les systèmes, verticalement et horizontalement
  • Eclipse les silos de données et la déconnexion des services
  • Prend en charge des processus tels que la caractérisation des matériaux, les formulations, le développement de processus, les études de stabilité ou les versions de lots dans une expérience « seamless»
  • Augmente la productivité du laboratoire jusqu’à 40%
  • Assure l’intégrité des données et améliore leur qualité
  • Favorise la collaboration et le partage de données à l’échelle mondiale
  • Permet l’intégration de nouvelles technologies et appareils de pointe
  • Permet une prise de décision en temps réel – basée sur les données et les connaissances
  • Crée une nouvelle expérience utilisateur générant de la valeur

 

Mais encore ?

Et si nous poussions la réflexion un peu plus loin ? Si nous nous connections à un écosystème plus large, au-delà même du laboratoire ?

  • Si nous mettions le laboratoire en relation directe avec les fournisseurs pour rechercher et obtenir les bons composés, cela réduirait de 50 % le temps que les chimistes consacrent à l’approvisionnement. Les scientifiques pourraient alors travailler beaucoup plus efficacement.
  • Si nous étions mis en relation avec des fournisseurs potentiels de synthèses chimiques et biologiques et que nous exploitions leurs informations, les scientifiques décèleraient la manière la plus rapide et/ou la plus rentable de développer un nouveau produit.
  • Si nous étions mis en relation avec des experts en modélisation et en simulation, nous pourrions remplacer les essais physiques par des essais virtuels sans avoir à développer l’expertise en interne.
  • Si nous étions mis en relation avec d’autres laboratoires, internes ou externes, nous pourrions optimiser la programmation des travaux de laboratoire de manière inédite, en éliminant le goulot d’étranglement des tests dans toute l’organisation.

Ce niveau supplémentaire de connectivité augmenterait la productivité des laboratoires dans tous les services, fournirait une vision plus approfondie du travail tout au long de la chaîne de valeur et favoriserait l’innovation dans un environnement commercial complexe.

Pour approfondir le sujet, nous vous invitons à visionner notre webinaire sur « Le laboratoire du 21e siècle » (webinaire en anglais).

[Un article traduit par Christian NGUYEN]

Daniela Jansen

Dr. Daniela Jansen is Director of Product Marketing at Dassault Systèmes' brand, BIOVIA and is responsible for the development of strategic solution positioning and articulating the customer value of BIOVIA's solutions. She has a long tenure of expertise in life sciences, laboratory processes and informatics as well as in manufacturing analytics, regulatory compliance and quality.

Derniers posts par Daniela Jansen (tout voir)