Technologies PNIPAM pour les laboratoires sur puce/Chapitre 1/Section 2

La bibliothèque libre.


Panorama des microsystèmes pour le vivant[modifier]

Réduction des dimensions[modifier]

Intérêts de la miniaturisation[modifier]

Économie de réactifs et de temps. Les potentialités des dispositifs d’analyse miniaturisés sont généralement présentées dans la littérature comme une petite révolution [10], [11], [12], [13]. Des dispositifs miniaturisés impliquent des volumes plus faibles, des distances plus courtes. Ainsi, on n’utilise que de faibles volumes d’échantillons et de réactifs, qui peuvent être rares ou coûteux [14]. Lion et al. passent en revue les implications de la miniaturisation dans le cadre de l’analyse des protéines (par:analytical-triangle); ils proposent trois principaux indicateurs visant à déterminer si un dispositif miniaturisé est plus avantageux : les performances, la quantité d’échantillon nécessaire et le temps d’analyse [15] ; la miniaturisation n’est d’ailleurs pas obligatoirement la meilleure solution dans tous les cas.

Gain en performances. Dans les analyses de séparation, la théorie prévoit une plus grande efficacité [10], notamment en électrophorèse capillaire [11]. Des canaux miniaturisés réduisent les distances de diffusions moléculaire et thermique. Le temps de diffusion sur une distance varie comme l’inverse du carré de la distance  : s’il faut 17 minutes à une espèce pour diffuser sur 1 mm, il ne lui faut que 100 ms pour diffuser sur 10 µm [16]; en réduisant le libre parcours moyen des espèces, on favorise également les réactions [13]. À titre d’exemple, l’analyse d’un échantillon de sérum humain par chromatographie liquide et spectrométrie de masse a été réalisée en puce et en capillaire par Horvatovich et al. : le dispositif sur puce a une résolution double pour un volume d’échantillon consommé trente fois inférieur [17].

Intégration sur puce et diminution des coûts. La miniaturisation des systèmes d’analyse vise également le regroupement de plusieurs fonctions sur le même support, voire des chaînes complètes d’analyse (§ ). En regroupant les fonctions, la connectique est simplifiée, les canaux sont réduits et les volumes morts minimisés. Les systèmes fabriqués, en étant miniaturisés, sont beaucoup plus portables ; cette caractéristique est particulièrement intéressante, que ce soit pour le diagnostic à domicile ou les urgences sanitaires à grande échelle, dans des zones avec peu d’infrastructures médicales [6]. Par ailleurs, l’intégration de systèmes miniaturisés d’analyse sur puce permet de profiter des mêmes avantages que la fabrication en masse de la micro-électronique (very large scale integration, vlsi) : la fabrication à grande échelle assure une excellente reproductibilité et des coûts limités. La reproductibilité est nécessaire à l’utilisation de dispositifs de façon hautement parallélisée pour du criblage haut-débit [18]. La baisse des coûts de fabrication permet d’envisager des dispositifs jetables, à utilisation unique, supprimant par la même occasion les problèmes de contamination croisée.

Défis et verrous[modifier]

Réduction d’échelle. La miniaturisation des systèmes d’analyse chimique et biologique est porteuse d’autant de potentialités d’applications que de défis technologiques et scientifiques à relever. En effet, la réduction d’échelle (downscaling) rend nécessaire la prise en compte de nombreux effets physiques et chimiques lors de la conception. Il ne suffit pas de réduire homothétiquement les dimensions des dispositifs macroscopiques [13]. Il est également important de se poser la question de l’influence de la réduction des dimensions sur les différents modes de détection chimique et biologique [19].

Prépondérance des surfaces. La miniaturisation des dispositifs d’analyse entraîne une forte augmentation du rapport surface-sur-volume. Elle favorise par exemple l’adsorption des analytes sur les parois [20] et l’évaporation des liquides, en particuliers des gouttes [19] ; dans le domaine des biopuces, le glycérol est utilisé pour limiter cet effet. L’influence des surfaces devient prépondérante ; il est nécessaire de contrôler précisément les divers phénomènes physiques et chimiques qui s’y déroulent. La fonctionnalisation chimique de surface a donc une importance cruciale dans la miniaturisation des systèmes d’analyse.

Fluidique. La miniaturisation permet de réduire le temps de diffusion, mais elle entraîne également des écoulements laminaires qui ne favorisent pas le mélange (\S (par:microfluidique)). Il est donc nécessaire de développer de nouvelles approches pour mélanger les fluides dans les microsystèmes. La connexion du microsystème avec le monde extérieur est également un défi que je détaillerai plus loin. La « barrière du microlitre » correspond à l’ensemble des problèmes engendrés par la dispense et la manipulation de volumes de liquides inférieurs au microlitre [18], [21], [22].

Interdisciplinarité[modifier]

Perspective historique. Interdisciplinarité et recherche scientifique ont longtemps été liées. Aristote est à l’origine des principales subdivisions de la connaissance ; non seulement il étudie l’ensemble des disciplines possibles, mais il y participe activement et influence notablement la plupart d’entre elles [23]. D’autres polymathes marquent l’histoire de la connaissance : Léonard de Vinci, Galilée, Thomas Young, etc. Ces « hommes d’esprit universels » étudient et excellent dans plusieurs disciplines différentes. Cependant, avec l’évolution des sciences et des techniques, la somme des connaissances augmente de façon telle que les scientifiques sont de moins en moins capables de maîtriser autant de domaines de compétences. Au xxe siècle, l’interdisciplinarité n’est plus que rarement présente dans la recherche scientifique. On ne rencontre alors le concept de façon régulière que dans le domaine de la santé, où il fait généralement référence aux différentes spécialisations [24], [25]. La miniaturisation des dispositifs d’analyse a cependant, dès les années 1990, incité au rapprochement des biologistes, chimistes, physiciens et technologues [7].

Terminologie. On entend parfois les termes de multidisciplinarité ou pluridisciplinarité ; ces notions ne sont pas équivalentes à l’interdisciplinarité. Multi et pluri signifient que plusieurs disciplines sont mises en jeu ; par exemple, le cursus primaire, collège et lycée est très pluridisciplinaire : de nombreuses disciplines différentes y sont étudiées. En revanche, interdisciplinaire indique que plusieurs disciplines sont abordées ensemble . L’interdisciplinarité fait intervenir des disciplines différentes sur la même problématique, avec des angles d’approche différents.

Interdisciplinarité à l’échelle micro et nano. La taille typique d’une cellule est 10 µm ; une chaîne d’\adn mesure quelques nanomètres de large : il est naturel que biologie et micro-nanotechnologies aient convergé (Fig. 1.1). Les physiciens et chimistes peuvent ainsi aider les biologistes à réaliser de nouveaux outils d’analyse et de manipulation d’échantillons ; réciproquement, les scientifiques peuvent s’inpirer de l’étude des systèmes biologiques micro- et nanométriques pour améliorer ou créer de nouveaux dispositifs [26] ; la nature est encore un bien meilleur nano-architecte que l’homme, notamment en ce qui concerne les systèmes auto-assemblés [27]. Le travail de recherche interdisciplinaire n’est pas facile ; les intervenants, physiciens, technologues, chimistes et biologistes, utilisent notamment des vocabulaires très différents. Les structures administratives existantes ne favorisent pas non plus l’interdisciplinarité, du moins en France ; peu d’efforts sont d’ailleurs faits en ce sens, malgré les promesses et les réformes des responsables politiques [28]. Ce sont donc les chercheurs qui doivent prendre l’initiative, malgré les obstacles institutionnels, administratifs et budgétaires, de la collaboration interdisciplinaire. C’est grâce à cette volonté d’interdisciplinarité qu’ont pu être développés les microsystèmes pour la biologie et la santé, en particulier les systèmes microfluidiques et les laboratoires sur puce.

Comparaison des objets biologiques et technologiques de l’Angström au millimètre.

De la microfluidique aux laboratoires sur puce[modifier]

Introduction à la microfluidique[modifier]

Définition. G.M. Whitesides définit la microfluidique comme « la science et la technologie des systèmes qui manipulent de petits volumes de fluides ( à litres), en utilisant des canaux de quelques dizaines de micromètres » [29]. Selon P. Tabeling, « on peut définir la microfluidique comme [une discipline] portant sur les écoulements de fluides simples ou complexes, mono ou multiphasiques, dans des microsystèmes artificiels, c’est-à-dire fabriqués à l’aide des nouvelles technologies[note 1] » [30]. La première définition fait bien apparaître la dualité de la microfluidique : en tant que science, elle englobe l’étude des phénomènes et la physique des fluides à l’échelle micrométrique ; en tant que technologie, elle contient également une dimension applicative. Cependant, la définition de Whitesides fait porter le préfixe micro sur la dimension de canaux[note 2] ; or, certains systèmes microfluidiques, par exemple les dispositifs d’électromouillage sur diélectrique, fonctionnent en gouttes, sans canaux [31], [32]. Tabeling donne quant à lui une définition d’ingénieur qui, comme il le souligne lui-même, exclut l’ensemble des systèmes microfluidiques naturels, tels que les capillaires sanguins ou le transport de sève dans les plantes (Fig. 1. 2). Je préfère définir la microfluidique de façon plus large, comme la science et la technologie des systèmes manipulant des fluides et dont au moins l’une des dimensions caractéristiques est de l’ordre du micromètre.

Exemple de réseau microfluidique naturel : structure veineuse d’une feuille d’érable. Le reste de la feuille a été dissout par gravure pour ne conserver que les veines.

Écoulements des fluides à l’échelle micro- et nanométrique. Aux petites dimensions, les phénomènes physiques macroscopiques ne subissent pas seulement une diminution linéaire de leurs effets. Certains phénomènes négligeables deviennent prépondérants, comme la capillarité ; inversement, d’autres forces telles que la gravité deviennent négligeables [33]. L’utilisation de grandeurs sans dimension permet d’appréhender plus facilement les caractéristiques d’un système microfluidique [34]. La plus répandue est probablement le nombre de Reynolds Re, proposé en 1883 [35], qui caractérise le rapport entre les forces d’inertie et les forces de viscosité (Eq. 1.1). Les systèmes microfluidiques sont généralement caractérisés par un petit nombre de Reynolds : les forces de viscosité sont prépondérantes. Ce comportement se traduit par des flux laminaires. On peut également citer le nombre de Péclet Pe, liant convection et diffusion, et le nombre de Knudsen Kn, permettant de classifier les milieux continus. Squires et Quake décrivent en détail la physique et les nombres adimensionnels à l’échelle du nanolitre [34].

Avec :

  • la masse volumique du fluide (kg.m) ;
  • la taille caractéristique du système (m) ;
  • une vitesse caractéristique (m.s) ;
  • la viscosité dynamique du fluide (kg.m.s, Pa.s, ou Pl) ;
  • la viscosité cinématique du fluide (m.s).

Développement. La microfluidique est un domaine de recherche particulièrement dynamique, comme en témoigne une rapide analyse de la production scientifique mondiale[note 3] (Fig. 1.3). Whitesides relie ce dynamisme à quatre thématiques principales[note 4] : la chimie analytique, la biodéfense, la biologie moléculaire et la micro-électronique [29] ; tout d’abord, le succès des méthodes analytiques au format capillaire (chromatographie liquide à haute performance, électrophorèse) a conduit à miniaturiser davantage les dispositifs, afin d’améliorer la sensibilité et la résolution des analyses. Le développement de la microfluidique a également été abondamment subventionné par les agences militaires, afin de répondre au risque des armes chimiques et biologiques. Par ailleurs, la course au séquençage du génome humain, rapidement suivi par le protéome et le métabolome, a rendu nécessaire le developpement d’outils d’analyse haut débit hautement parallélisables. Enfin, la microfluidique a largement profité des technologies de microfabrication, développées à l’origine pour la micro-électronique et les microsystèmes. On peut néanmoins s’étonner du fait que, malgré ces facteurs et ce dynamisme, la microfluidique n’ait pas encore envahi notre quotidien, en particulier dans le domaine de la santé. La raison principale que je vois à cette latence est que la microfluidique reste une discipline relativement jeune ; de très nombreux dispositifs ont été développés, enrichissant d’autant la boîte à outils microfluidique. Cependant, le problème reste leur intégration, leur assemblage cohérent et la possibilité d’utilisation du dispositif final par une personne non avertie. En ce sens, les tests de grossesse jetables, bien que plus simples, sont un exemple à suivre [37]. Je suis cependant confiant dans l’avenir de la microfluidique, qui a d’ailleurs été choisi en 2001 par la {{l ang|en|Technology Review}} du M.I.T. comme l’une des « dix technologies émergentes qui vont changer le monde » [38].

Évolution annuelle du nombre de références indexées dans CAS concernant la microfluidique. L’axe des ordonnées utilise une échelle logarithmique.

Fonctions de base. La technologie microfluidique comporte plusieurs facettes ne se limitant pas à « l’écoulement des fluides ». On peut identifier plusieurs composantes d’un système microfluidique : les zones d’écoulement, les dispositifs d’actionnement et l’interface avec le monde extérieur. Les zones d’écoulement sont généralement des microcanaux fabriqués en technologie polymère [39], [40]. Les techniques de micro-électronique fournissent de nombreuses technologies d’usinage de volume et de surface ; d’autres technologies, telles que le laminage de films secs, ont été développées plus spécifiquement pour les systèmes microfluidiques [41]. La géométrie et le design des zones d’écoulement est également à prendre en compte : canaux droits simples, en forme de T [42] ou même biomimétiques [26]. Une autre fonction microfluidique de base est l’actionnement des fluides [43] : ce terme recouvre l’injection, le déplacement contrôlé et les différentes opérations effectuées sur le fluide, comme le mélange. Ces fonctions sont implémentées par une variété de composants microfluidiques élémentaires : pompes [44], [45], [46], valves [47], [48], mélangeurs [49]. Le dernier aspect de la technologie microfluidique, et non le moindre, est la connexion entre le système micrométrique et le monde extérieur [30], [50]. La connectique entre le système microfluidique et le macromonde s’apparente à de la microplomberie ; il s’agit de développer des interfaces, si possible standardisées [51], entre des systèmes d’échelles très différentes. Tous ces aspects ne recouvrent que les fonctions de base, que l’on rencontre généralement dans tout système microfluidique ; d’autres fonctions plus évoluées sont souvent ajoutées.

Éléments magnétiques et optiques intégrés. En plus des fonctions de base, la boîte à outils du technologue en microfluidique est riche de nombreux éléments, notamment magnétiques et optiques. Les bobines et autres éléments magnétiques ont été intégrés à l’échelle micrométrique lors du développement des microsystèmes électromécaniques (micro-electromechanical systems, mems[52] ; l’application la plus connue de mems magnétiques est probablement les têtes d’enregistrement pour disques durs, fonctionnant sur le principe de la magnétorésistance géante. En microfluidique, les éléments magnétiques servent principalement à la manipulation d’échantillons : pompes, valves, mélangeurs, triage, séparation, etc. [53] Les particules magnétiques (notamment les billes) sont particulièrement utilisées comme support solide pour les tests biologiques [54]. Plus rarement, des fonctions magnétiques peuvent servir à la détection ; Trumbull et al. ont ainsi intégré sur puce un système de résonance magnétique nucléaire [55]. À l’inverse, les composants optiques sont généralement utilisés pour la détection et plus rarement pour la manipulation d’échantillons [56], [57], [58] ; l’une des possibilités pour la détection intégrée est le couplage avec une fibre optique [59], [60]. Pour finir, on peut remarquer que, parfois, les rôles sont inversés : la microfluidique se met au service de l’optique; Psaltis et al. ont ainsi détaillé différentes applications d’« optofluidique », faisant ainsi référence aux systèmes optiques contrôlés par des composants microfluidiques [61] ; les fibres optiques microfluidiques ont d’ailleurs été mises en avant en 2004 par la Technology Review du M.I.T. comme l’une des « dix technologies émergentes qui vont changer le monde » [62].

Microfluidique pour le vivant : µTAS et laboratoires sur puces[modifier]

Historique et définitions. L’analyse du vivant regroupe trois des quatre raisons majeures, évoquées précédemment, ayant entraîné le développement de la microfluidique ; il est donc naturel qu’elle représente une large part des applications. On considère généralement que le premier dispositif microfluidique d’analyse est celui développé par Terry et al. ; ceux-ci réalisent en 1979 un système miniaturisé d’analyse de gaz par chromatographie sur un substrat de silicium []. Ils réduisent les dimensions du dispositif de trois ordres de grandeur, tout en intégrant une colonne de séparation d’ m de long, capable de séparer des mélanges gazeux hydrocarbonés en moins de dix secondes. Ce travail est tellement novateur qu’il faut attendre dix ans pour voir émerger des travaux analogues et la rationalisation du concept : Manz et al. proposent en 1990 la notion de « systèmes miniaturisés d’analyse chimique complète[note 5] » (miniaturized total chemical analysis systems), plus tard abrégé en « microtas » (micro total analysis systems) []. Ce terme regroupe les systèmes miniaturisés, possédant généralement une dimension micrométrique, qui intègrent la séquence complète d’analyse d’un échantillon brut jusqu’à la lecture du résultat. Le concept de « laboratoire sur puce » (lab-on-a-chip, LOC), plus général, a émergé plus tard, quand il s’est avéré que les technologies de microtas avaient d’autres applications que l’analyse chimique. La notion de laboratoire sur puce est moins restrictive que celle de microtas : un laboratoire sur puce ne contient pas nécessairement l’intégralité de la chaîne d’analyse, alors que c’est la définition d’un microtas ; les laboratoires sur puce de synthèse chimique ne sont par exemple pas des microtas []. On peut définir un laboratoire sur puce comme un dispositif intégré rassemblant, sur un substrat miniaturisé, une ou plusieurs fonctions de laboratoire.

Débuts. Les premiers travaux des années 1990 consistent en la miniaturisation de dispositifs d’analyse chimique. Manz et al. utilisent des techniques de photolithographie, d’oxydation et de gravure pour réaliser des puces d’électrophorèse capillaire sur silicium []. L’application de plus fortes tensions, nécessaire pour rendre l’analyse plus rapide et performante, incite rapidement à se tourner vers le verre. Harrison et al. développent ce concept en réalisant, sur une puce en verre, un système intégré d’électrophorèse capillaire, comprenant des pompes électro-osmotiques []. Ces travaux novateurs démontrent à l’époque les potentialités des systèmes d’analyse miniaturisés ; de nombreuses équipes de recherche décident alors de développer de tels dispositifs, entraînant de nombreuses avancées technologiques [].

Développement récent. Les travaux sur les laboratoires sur puce et les microtas ont rapidement trouvé leur place. Des journaux comme Electrophoresis ou Analytical Chemistry les ont accueilli à bras ouverts. La conférence internationale annuelle microtas (International conference on miniaturized systems for chemistry and life sciences) existe depuis 1994 [] ; le journal Lab on a Chip, publié par Rsc Publishing, a été créé en 2001. Les travaux récents dans le domaine des laboratoires sur puce et des microsystèmes d’analyse complète font régulièrement l’objet de revues de la littérature []. L’objectif n’est donc pas ici de réaliser une analyse exhaustive de ces travaux ; il est plutôt de proposer un panorama général et représentatif. Le lecteur, s’il souhaite approfondir ces notions, pourra se rapporter aux références, en prêtant un intérêt particulier aux revues de la littérature, signalées dans la bibliographie par la mention \review.

Applications. La chimie analytique et la biologie moléculaire ont fortement participé au dé\-ve\-lop\-pe\-ment de la microfluidique et des laboratoires sur puce. La majorité des applications relève donc de ces domaines. En 2002, Auroux et al. en proposent une revue assez complète, en particulier concernant les opérations standard d’analyse chimique []. Des laboratoires sur puce sont actuellement développés pour l’étude de la plupart des molécules et macromolécules biologiques : \adn [], protéines et peptides [], cellules [], anticorps et antigènes [], sucres []. Les applications visées en recherche et développement sont le diagnostic clinique (grippe aviaire [], cancer []), notamment en « point de service », et la recherche pharmaceutique [] : les techniques miniaturisées permettent de réaliser des criblages parallélisés haut débit pour la découverte de médicament. Les techniques de surveillance biomédicale en point de service sont également généralisées à l’analyse alimentaire et environnementale, afin de contrôler la qualité de la nourriture ou la pollution des cours d’eau []. Par ailleurs, une part non négligeable des financements de recherche sur les laboratoires sur puce provient des fonds alloués à la lutte contre le bioterrorisme ; on voit par exemple apparaître des dispositifs de détection du gaz Sarin dans le sang []. Les Sandia National Laboratories jouent un rôle important dans le domaine de la biodéfense. Pour finir, les laboratoires sur puce ne sont pas limités à l’analyse biologique ; ils peuvent également servir de réacteurs chimiques. Les dimensions réduites des systèmes microfluidiques permettent en effet un meilleur contrôle et une meilleure détection des réactions chimiques, notamment du mélange de réactifs [].

Protéomique. La recherche protéomique est un domaine de recherche post-génomique très actif ; de nombreux travaux menés en microfluidique et sur les laboratoires sur puce sont liés à l’analyse des protéines et de leurs fonctions []. La miniaturisation de l’analyse protéomique est motivée par le gain de performance du « triangle analytique » présenté plus haut [] (p. \pageref{par:analytical-triangle}). Freire et al. identifient quatre fonctions majeures indispensables à la protéomique sur puce : le traitement chimique, la préconcentration et le nettoyage, les séparations chimiques et les interfaces avec la spectrométrie de masse (pour analyse) []. Ils rappellent eux aussi l’importance (et la difficulté) de développer les différents modules et de les intégrer sur un même support. Les opérations typiques réalisées sur puce sont la séparation rapide et l’analyse de digests de protéines [] ; des résultats très encourageants sont obtenus, notamment par Li et al. : cette équipe a développé une réelle plate-forme protéomique d’analyse SPE-CE-MS[note 6] de digests de protéines ; la plate-forme, équipée d’une dispense d’échantillons automatisée, est capable de traiter douze échantillons par heure [].

Laboratoires sur puce commercialisés. Malgré les nombreux efforts des laboratoires de recherche, les laboratoires sur puce ayant atteint la maturité nécessaire à leur commercialisation sont rares. STMicroelectronics (http://www.st.com) a développé une plate-forme générique, baptisée In-Check, basée sur une puce en silicium[note 7]. Elle inclut toutes les fonctions nécessaires à l’identification de séquences données d’oligonucléotides, y compris la PCR et une biopuce intégrée. ST a ensuite travaillé avec plusieurs laboratoires spécialisés pour développer des applications particulières basées sur In-Check. Ainsi, ST et la société finlandaise Mobidiag ont lancé en septembre 2005 un laboratoire sur puce pour le diagnostic rapide de bactéries à l’origine de la septicémie[note 8]. En mars 2008, ST annonce la commercialisation d’une nouvelle application, réalisée en collaboration avec Veredus Laboratories[note 9]. La puce, nommée « VereFlu », a pour objectif le diagnostic rapide de la grippe (flu) en point de service ; elle permet de détecter les principaux types de grippe, y compris la souche H5N1 de la grippe aviaire, en un seul test. La société Agilent Technologies (http://www.agilent.com), quant à elle, a développé un système d’identification de protéines, couplant une puce de chromatographie liquide haute performance à un spectromètre de masse (HPLC-Chip/MS)[note 10]. La puce microfluidique a la dimension d’une lame de microscope et intègre un colonne de préconcentration, une colonne analytique et une pointe d’électronébulisation[note 11].

Intégration des briques technologiques en microTAS[modifier]

Briques technologiques. Les laboratoires sur puce destinés à l’analyse biologique sont des assemblages de briques technologiques pouvant être classées en familles, dont principalement : la préparation d’échantillon (pouvant inclure la concentration), la manipulation (des fluides et des analytes, y compris le mélange), la réaction (avec divers réactifs chimiques ou biologiques), la séparation chimique (chromatographie, électrophorèse) et la détection (fluorescence, spectrométrie de masse). Le principal défi consiste en l’assemblage final de ces briques technologiques de façon homogène[note 12]. De nombreux efforts ont ainsi été faits afin d’intégrer les dispositifs de détection sur puce : la détection représente une étape incontournable et critique dans tout dispositif d’analyse. Les trois techniques principales de détection utilisées dans les laboratoires sur puce sont les méthodes optiques, électrochimiques et d’analyse de masse []. Les deux premières peuvent être intégrées dans les microsystèmes, à l’instar des lasers à cavité verticale émettant par la surface (vertical cavity surface emitting lasers, Vcsel) développés par Thrush et al. []. Les spectromètres de masse, quant à eux, ne peuvent pas être intégrés sur puces ; c’est donc principalement l’interfaçage qui a fait l’objet de développements.

Intégration. {{sc| Minc}} et Viovy distinguent l’intégration spatiale, au sens de l’intégration à très grande échelle rencontrée en micro-électronique (very large scale integration, vlsi), et l’« intégration verticale[note 13] », c’est à dire le regroupement de fonctionnalités différentes []. Les puces réalisées par Quake et son équipe, contenant des milliers de valves miniaturisées fonctionnant en parallèle, appartiennent par exemple à la première catégorie []. À l’heure actuelle, beaucoup de briques technologiques de base ont été développées ; cependant, l’assemblage de dispositifs complètement intégrés est lent ; plusieurs dispositifs « réellement microtas » ont néanmoins été présentés ces dernières années.

MicroTAS d’analyse génomique. Liu et al. ont développé une puce complètement intégrée et automatisée comprenant mélangeurs, valves, pompes, canaux, chambres et une biopuce à \adn []. Ce dispositif permet d’effectuer toutes les étapes, de la préparation d’échantillon brut à la détection électrochimique, en passant par la \pcr. La puce doit néanmoins être insérée dans un instrument fournissant l’énergie électrique, l’interface de lecture, un élément Peltier et un aimant permanent ; ces fonctions sont cependant, à défaut d’être embarquées dans la puce, assez légères pour assurer la portabilité de l’instrument. La puce est suffisamment bas-coût pour être jetable : cela permet à la fois de s’affranchir de tout problème de contamination croisée et de simplifier son design, par exemple en utilisant des valves en paraffine à usage unique. L’analyse totale dure moins de trois heures (dont  min de \pcr et une heure d’hybridation \adn).

MicroTAS d’analyse protéomique. L’analyse protéomique est plus difficile à miniaturiser dans son intégralité, car elle comprend souvent une étape finale d’analyse utilisant un gros instrument. Trumbull et al. sont toutefois parvenus à réaliser un véritable microtas d’analyse protéomique en intégrant, sur une puce microfluidique, un dispositif d’électrophorèse capillaire couplé à une détection par résonance magnétique nucléaire intégrée []. Bien qu’il ait fallu faire des compromis en terme de sensibilité, ces travaux restent l’un des meilleurs exemples de preuve de concept des microtas pour la protéomique. D’autres résultats, tels que ceux de Moon et al., méritent également d’être soulignés. Ces derniers ont réalisé une puce utilisant une technique microfluidique discrète (électromouillage sur diélectrique) []; la puce permet d’effectuer la préparation d’échantillon et le mélange avec les réactifs. Les données sont ensuite collectées par un spectromètre de masse.

Compatibilité et connectivité. L’assemblage des briques technologiques ne doit pas faire oublier que le dispositif final doit être connecté au monde extérieur []. Les systèmes microfluidiques basés sur la centrifugation cumulent sur ce point plusieurs avantages []. Outre les qualités intrinsèques du dispositif d’analyse (parallélisme, reproductibilité, haut débit) [], certains « laboratoires sur CD » sont directement utilisables sur des lecteurs CD ou DVD commerciaux : le laser, habituellement utilisé pour la lecture des données informatiques, sert alors de source d’excitation de fluorescence []. Ces dispositifs constituent un excellent exemple de volonté de compatibilité des briques technologiques avec un matériel existant et répandu.

Conclusions. Le développement de briques technologiques assemblées ne doit pas faire oublier que l’une des particularités des microtas est l’analyse d’échantillons bruts : salive, urine, sang, etc. Cette caractéristique, destinée à faciliter l’analyse par le manipulateur, implique néanmoins des étapes de préparation d’échantillons ; ces étapes sont nécessaires afin d’extraire du liquide brut les molécules d’intérêt et d’en retirer les éventuelles espèces parasites pour l’analyse.

Préparation d’échantillons[modifier]

Échantillons non idéaux. Le maillon faible des systèmes de détection microfluidiques reste la préparation d’échantillon []. La nécessité d’intégrer des dispositifs de préparation d’échantillons découle directement du concept de microtas. La plupart des laboratoires sur puces sont testés avec des échantillons idéaux, préparés spécifiquement pour que la caractérisation soit la meilleure possible. Dans les microtas, l’analyse est effectuée à partir d’un échantillon brut ; dans le domaine de la santé, il peut s’agir de sang, d’urine, de sérum ou de salive. Les échantillons réels, non idéaux, doivent nécessairement être traités et préparés pour l’analyse []. Les recherches se concentrent généralement sur les échantillons sanguins [], notamment provenant de sérum ou de plasma []. Lima et al. ont par exemple étudié l’écoulement et le profil de vitesse d’un échantillon de sang dans un canal pdms []. Crevillén et al. ont publié en 2007 une revue de la littérature consacrée à l’analyse d’échantillons réels dans des dispositifs microfluidiques d’analyse biochimique, environnementale et nutritionnelle [] ; ils insistent notamment sur l’importance de la préparation des échantillons. Par exemple, certaines conditions biologiques, nécessaires à la manipulation des échantillons, sont incompatibles avec les limites des instruments ; ainsi, le tampon phosphate salin (phosphate buffer saline, pbs) est très utilisé en biologie, mais les sels doivent être éliminés de la solution pour analyser les échantillons par spectrométrie de masse.

Familles de techniques. En 2002, Lichtenberg et al. dressent une revue assez complète sur les travaux réalisés dans le domaine de la préparation d’échantillon dans des microdispositifs []. Six ans après, des progrès ont été effectués, mais la lecture en reste intéressante. Les auteurs classifient les techniques de préparation d’échantillon en quatre grandes familles : la dérivatisation (conjugaison de molécules ou macromolécules, marquage), les traitements biochimiques (amplification par \pcr, digestion enzymatique), la séparation (dialyse, électrophorèse, lyse de cellule) et la préconcentration (extraction en phase solide, isotachophorèse).

Microsystèmes de préparation d’échantillons. L’objectif final est l’intégration de fonctions de préparation d’échantillons dans un dispositif complet d’analyse ; Liu et al. ont ainsi réalisé un microtas d’analyse \adn comprenant notamment une séquence de capture, préconcentration, purification, lyse de cellules et \pcr []. Ces dispositifs complets sont cependant encore peu répandus ; on rencontre néanmoins des microsystèmes entièrement dédiés à la préparation d’échantillons []. Legendre et al. ont par exemple réalisé l’extraction d’\adn à partir d’un échantillon de sang et son amplification, sur la même puce, par \pcr [] ; la détection n’est par contre pas intégrée au dispositif. Une large part des microsystèmes de préparation d’échantillon est dédiée à la préparation et l’amplification d’\adn à partir de cellules [] ; cependant, avec l’avènement de l’ère post-génomique, l’identification des protéines (notamment par spectrométrie de masse) a entraîné le développement de systèmes de préparation d’échantillons spécialisés pour la protéomique.

Spectrométrie de masse. L’une des méthodes d’analyse les plus utilisées pour la protéomique est la spectrométrie de masse [] ; sa sensibilité, notamment aux sels, nécessite cependant plusieurs étapes de préparation d’échantillon (préconcentration, désalage) []. Lion et al. ont ainsi développé un élément intégré de désalage et préconcentration de protéines, dont l’objectif est de servir d’interface entre une puce d’injection et un spectromètre de masse []. Les protéines sont adsorbées sur une membrane, puis éluées directement dans la solution de nébulisation ; elles sont ainsi à la fois désalées et préconcentrées. Cette approche fonctionne pour de nombreuses molécules (peptides et protéines) ; la même équipe a ensuite intégré ce système sur une puce microfluidique et a obtenu une préconcentration encore plus efficace []. Gustafsson et al. ont réalisé cette préparation sur un disque compact Gyros modifié [] ; cependant, seule la préparation d’échantillon est réellement effectuée sur le CD ; celui-ci est ensuite découpé pour être introduit dans un spectromètre de masse classique. Luque-Garcia et al. identifient trois étapes principales dans la préparation d’échantillons pour l’identification, par spectrométrie de masse, de marqueurs biologiques[note 14] provenant de sérum ou de plasma []. La première étape rassemble la collecte de l’échantillon, sa manipulation et sa conservation. La seconde étape est la réduction de la concentration des protéines les plus abondantes, dont les dix premières constituent près de \

Extraction en phase solide. La préparation d’échantillon requiert généralement la rétention des objets biologiques d’intérêt sur une phase solide permettant leur extraction. Des protéines peuvent ainsi être adsorbées sur une phase solide hydrophobe (matériau poreux, microbilles tassées). Une fois les molécules extraites, il est nécessaire de les décrocher ; cette étape est par exemple réalisée par des injections de solvant comme l’acétonitrile. Ces solvants sont cependant susceptibles de dénaturer les objets biologiques ; des méthodes de décrochage doux sont préférables.

Conclusions[modifier]

Enjeux. L’avènement de l’« ère post-génomique » a provoqué la réorientation de tout un domaine de recherche vers des systèmes plus complexes en biologie moléculaire ; protéomique, cellomique et biologie systémique sont les enjeux actuels du vivant ; les principales applications concernent le diagnostic et la recherche pharmaceutique. Tous ces domaines sont demandeurs de technologies nouvelles permettant d’obtenir plus de résultats, plus fiables, plus facilement, plus vite et moins cher. Cette demande a entraîné le développement de systèmes (notamment d’analyse) miniaturisés, intégrés, portables et bas-coût.

Microfluidique. La réduction des dimensions des systèmes d’analyse promet des économies de réactifs, d’échantillons et de temps ; la théorie prédit des systèmes plus performants, dont la fabrication à grande échelle réduit les coûts. La microfluidique a principalement émergé des besoins grandissants en systèmes miniaturisés pour le vivant. La réduction d’échelle entraîne cependant de nouvelles prédominances d’effets physiques comme la capillarité, dues notamment à la prépondérance des surfaces et l’augmentation du rapport surface sur volume. La microfluidique est un domaine de recherche particulièrement dynamique ; les développements technologiques concernent aussi bien les fonctions fluidiques de base, comme le mélange, que des fonctions plus spécialisées.

Laboratoires sur puce. De la réduction des systèmes d’analyse a émergé l’idée d’intégrer sur un dispositif miniaturisé « microtas » l’ensemble de la chaîne d’analyse, de l’échantillon brut au résultat. Le développement de ces laboratoires complets sur puce est un domaine très interdisciplinaire ; il fait intervenir la conception de briques technologiques individuelles, mais également leur intégration cohérente sur des substrats miniaturisés. L’une des étapes incontournables des microtas est la préparation des échantillons non idéaux, indispensable afin de les rendre prêts à être analysés. Le développement des briques technologiques passe notamment par l’étude de nouveaux principes actifs, compatibles avec une intégration facile dans les systèmes miniaturisés. C’est dans ce contexte que nous avons souhaité explorer les possibilités des polymères actifs, en particulier le pnipam, pour des applications en laboratoires sur puce.

  1. Tabeling précise qu’il entend essentiellement par « nouvelles technologies » les technologies de microfabrication héritées de la micro-électronique.
  2. Ce préfixe ne concerne pas les volumes de fluides qui, dans la définition de Whitesides, sont compris entre le nanolitre et l’attolitre.
  3. Recherche effectuée le 12 juin 2008 sur le mot-clef microfluidics dans la base de données CAplus avec l’outil SciFinder Scholar. Il faut garder à l’esprit que cette base de données est principalement orientée sur le domaine de la chimie et la santé ; le compte total des publications concernant la microfluidique est donc probablement encore plus élevé.
  4. A. van den Berg attribue le développement de la microfluidique aux mêmes « origines », mais ne cite pas l’impulsion donnée par la recherche en biodéfense [].
  5. Je préfère cette traduction à celle, souvent rencontrée, d’« analyse totale ». Cette dernière, sans réellement être un barbarisme, me semble toutefois moins adaptée.
  6. Solid-phase extraction, capillary electrophoresis and mass spectrometry : extraction en phase solide, séparation en électrophorèse capillaire et analyse par spectrométrie de masse.
  7. http://www.st.com/stonline/products/technologies/labonchip/technolo.htm
  8. http://www.st.com/stonline/press/news/year2005/fra/t1695ffra.htm
  9. http://www.st.com/stonline/stappl/cms/press/news/year2008/t2277.htm
  10. http://www.chem.agilent.com/EN-US/PRODUCTS/INSTRUMENTS/MS/HPLC-CHIPMSPROTEINIDENTIFICATIONSOLUTION/Pages/default.aspx
  11. Vidéo de présentation : http://www.chem.agilent.com/en-us/products/instruments/lc/1200serieshplc-chipmssystem/pages/gp15389.aspx
  12. Des assemblages complexes ne sont pas toujours nécessaires : Jacobson et al. ont par exemple réalisé, sur une puce simple en forme de croix, la séparation électrophorétique d’un échantillon binaire en moins d’une milliseconde ; cela représente un gain de deux ordres de grandeur par rapport à la même opération en capillaires [].
  13. Ce terme me paraît mal choisi : « intégration verticale » fait davantage penser à un assemblage de plusieurs briques, empilées pour former un dispositif hybride en volume, qu’à un dispositif planaire intégrant des fonctions différentes.
  14. Les marqueurs biologiques, ou biomarqueurs, sont définis par Adkins et al. comme des « protéines qui subissent un changement de concentration ou d’état en fonction d’un processus biologique spécifique ou d’une maladie » [].