RATIONALISER LA DÉCOUVERTE DE MÉDICAMENTS

Notre plateforme

01

EXPLORATION SCIENTIFIQUE DES DONNÉES
800-1 200 pages analysées en 5 minutes

Entrée requise : question de l'utilisateur + 1 clic

Une manière révolutionnaire de rechercher et d'analyser des informations scientifiques. Nous tirons parti des récentes percées dans le domaine des grands modèles de langage et de l'informatique parallèle pour automatiser l'extraction de données à partir de la littérature scientifique, ce qui permet d'obtenir un rendement élevé.

Notre logiciel propriétaire sélectionne, résume et catégorise automatiquement les connaissances sur les cibles, les ligands, les contrôles positifs et les mécanismes de réaction, qu'elles soient disponibles dans des archives privées ou dans les principaux moteurs de recherche tels que Google Patents, PubMed et Web of Science.

Une citation de l'un de nos collaborateurs "En 3 heures, nous avons accompli le travail qui aurait pris 2 mois à l'un de mes postdocs".

02

MODÉLISATION DE CIBLEs
Simulations de dynamique moléculaire jusqu'à l'échelle de la milliseconde

Données requises : Fichiers FASTA ou PDB + 1 clic
Entrées optionnelles : contrôle(s) positif(s), paramètres de simulation (champ de force, modèle de solvant, environnement membranaire)

Les structures cibles modélisées à partir de séquences d'acides aminés ou d'ADN à l'aide d'AlphaFold2 fournissent d'excellentes informations générales sur les protéines dont les structures expérimentales sont inconnues. Cependant, les modèles basés sur l'IA échouent souvent (environ 85 % de taux d'échec1) lorsqu'une connaissance plus approfondie est requise, comme celle nécessaire pour effectuer un arrimage précis.

Contrairement à la plupart de nos concurrents, les structures prédites par notre pipeline font l'objet de simulations de dynamique moléculaire sur notre cluster afin de prédire des poses d'amarrage significatives. L'amarrage ultrarapide est ensuite effectué avec notre algorithme parallèle, améliorant considérablement la capacité des algorithmes de pointe à prédire à la fois les poches correctes et les positions d'amarrage sur les structures d'AlphaFold2. L'algorithme sevenTM atteint un taux d'échec de <2% pour ces tâches.

1. doi : 10.7554/eLife.89386.1

03

GÉNÉRATION ET CRIBLAGE À HAUT DÉBIT
1 milliard de composés criblés par heure
1 000 à 10 000 composés conçus et classés par heure

Données requises : chaîne(s) de caractères SMILES + 1 clic
Entrée facultative : bibliothèque de composés d'intérêt. Valeur par défaut : ZINC20, comprenant 800 millions de petites molécules encodés par nos soins dans un format optimisé pour le calcul parallèle.

Nos approches incluent la réutilisation de petites molécules issues du criblage d'une bibliothèque de composés commercialement disponibles et générées grâce à notre algorithme propriétaire, qui est axé sur l'augmentation de la spécificité pour une poche cible.

Notre algorithme repose entièrement sur les premiers principes et, contrairement aux solutions basées sur l'IA souvent employées pour exécuter cette tâche, il ne produit pas de structures chimiquement déraisonnables et ne nécessite pas des millions, voire des milliards, de points de données d'activité propriétaires et de structures ligand-cible résolues expérimentalement.

La pharmacocinétique des candidats est présélectionnée à l'aide de modèles QSAR et pharmacocinétiques mécanistes exclusifs, conçus pour réduire l'attrition ultérieure.

04

PRÉDICTION ET SÉLECTION DE LA TOXICITÉ
1 000 à 5 000 candidats analysés par heure

Données requises : seuil de toxicité toléré + 1 clic
Entrée facultative : ensemble/bibliothèque de composés d'intérêt

Les candidats saisis par l'utilisateur ou issus de l'étape précédente sont passés au crible d'un ensemble de filtres de toxicité inédits, entièrement fondés sur les premiers principes et fournissant une interprétation mécaniste ainsi qu'un retour d'information à la phase de conception.

Le pipeline identifie l'inhibition d'enzymes métaboliques clés dans plusieurs organes, tels que le foie, le cœur, les reins et le cerveau. De plus, il prédit la biodégradation en métabolites toxiques, en se basant sur notre base de données de réactions enzymatiques clés et de substrats toxiques connus.

Notre approche atteint une précision inégalée par rapport aux modèles de toxicité de Deep Learning existants, qui sont condamnés à rester des expériences théoriques, car ils ne sont pas formés sur des milliards de données propriétaires in vivo et cliniques, auxquelles la plupart des organisations n'ont pas accès.

05

ÉVALUATION DE L'EXTENSIBILITÉ DES MÉDICAMENTS
1 000 à 5 000 composés analysés par heure

Données requises : plage souhaitée à partir de notre carte du compromis évolutivité-stabilité + 1 clic
Entrée facultative : ensemble/bibliothèque de composés d'intérêt

Les modèles de rétrosynthèse, de stabilité des lots et de chaîne d'approvisionnement sont réunis et harmonisés. Il s'agit du premier modèle d'IA capable de prédire toutes les caractéristiques critiques impliquées dans une synthèse actualisée et réelle d'un nouveau composé. Il identifie et classe rapidement les candidats présentant un haut degré de fabricabilité et de capacité de mise à l'échelle, et génère un rapport pour chaque composé analysé.

Ce modèle est actuellement en cours de construction.

06

validation in vitro
Les composés principaux pratiquement identifiés et conçus font l'objet d'une évaluation systématique au moyen d'une combinaison d'essais visant à caractériser à la fois leur biophysique (affinité avec la cible) et leurs effets cellulaires.

Les évaluations de la viabilité et de la toxicité des cellules sont effectuées à l'aide de lignées cellulaires soigneusement sélectionnées et caractérisées. L'ensemble du processus est hautement automatisé afin d'optimiser le débit des tests, les essais étant réalisés sur des plaques de 96 et 384.

Les tests sont réalisés par des partenaires universitaires et une CRO, les résultats obtenus servant à valider et à améliorer nos modèles, ce qui garantit une amélioration continue du pipeline.