Bienvenue, Invité
Merci de vous identifier ou de vous inscrire.    Mot de passe perdu?
signifie que ce forum est verrouillé; pas de nouveaux messages possibles.
Biologie de synthèse signifie que ce forum est verrouillé; pas de nouveaux messages possibles.
(1 lecteur(s)) (1) Invité(s)
Aller en basPage: 123
SUJET: Biologie de synthèse
   07/06/13 à 11:57 #37831
Thomas 2
Contributeur extraordinaire !
Messages: 471
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Biologie de synthèse
yquemener écrit:
Pandora écrit:
Le copyright ne pourra pas s'appliquer à tout c'est quand même particulier à l'écriture d'un génome si j'ai bien compris, donc il est possible d'imaginer qu'il y est une dérogation si le procédé se "banalise". En fait tu donnais un exemple que j'ignorais, mais il semble bien avoir été montré que l'ADN est considéré être un support d'information comme un autre. Donc si une boite trouve une séquence ADN indispensable pour créer une protéine particulière, elle peut la déposer. Ce serait catastrophique.



J'avais lu un article très intéressant sur Futurasciences concernant la recherche en informatique. Il y était dit que la prochaine révolution informatique pourrait venir de recherches en cours.

Jusqu'ici, on a exploité le système binaire : 0 et 1 pour le traitement et le stockage de l'information mais nous ne sommes apparemment pas très loin d'arriver au bout de cette logique car la vitesse de transmission des matériaux ne permettra pas d'aller beaucoup plus loin.

Les recherches en cours sont basées sur l'ADN qui serait la base du système au lieu du binaire. Avec ses quatre nucléotides : A, G, C, T qui offrent des possibilités de combinaisons quasi infinies, l'informatique pourrait être le prochain utilisateur de l'ADN... (et appremment c'est bien avancé dans les recherches...). Et là aussi, la question des brevets et des copyrights se pose.
 
Dernière édition: 07/06/13 à 11:58 Par Thomas 2.
Le sujet a été verrouillé.
   07/06/13 à 13:34 #37837
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Biologie de synthèse
Que l'on compte en base 2 ou en base 4, ça ne change vraiment pas grand chose, les possibilités de la machine seront strictement les mêmes.

Je n'ai pas trop lu ce qui tourne autour des ordinateurs ADN mais d'après ce que j'ai compris ce serait plus une "révolution" pharmaceutique qu'informatique : permettre à des médicaments d'intégrer des fonctions logiques (si je trouve cette protéine ET cette molécule OU que ce gène est présent, alors je m'active)
 
Le sujet a été verrouillé.
   07/06/13 à 13:45 #37840
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Biologie de synthèse
Cela a tout de même un avantage Yquemener. A "taille" égale l'ADN est capable de stocker une quantité d'information largement supérieure à n'importe quelle mémoire informatique actuelle grâce à sa forme super enroulée (il n y a qu'à voir l'information de notre génome qui tient sur une échelle tenant du nanomètre). Et l'ADN est un composé extrêmement stable dans le temps si on le maintient dans de bonne conditions. Évidemment la lecture est beaucoup plus compliquée(il faut séquencer...). Cependant ce mode de stockage est avancé pour contenir les archives nationales ou ce genre de chose, qui prennent beaucoup de place et qui ne sont pas souvent consultés.
 
Le sujet a été verrouillé.
   07/06/13 à 14:12 #37843
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Biologie de synthèse
Oui, on voit souvent cet argument. Perso, je n'y crois pas trop. On donne souvent la quantité d'information qu'un gramme d'ADN peut contenir, mais on oublie de dire que c'est souvent la même info recopiée des milliards de fois.

Aujourd'hui, l'ADN, on sait le lire, lentement, avec difficulté, sans pouvoir accéder à une adresse précise des données et en détruisant l'enregistrement. L'écrire est encore plus difficile. Je ne pense pas qu'on ait l'usage pour une mémoire contenant des peta-octets dans 3 grammes mais qu'on ne peut lire qu'à 10 ko/s (et je suis généreux) et écrire à une vitesse encore inférieure.
 
Le sujet a été verrouillé.
   07/06/13 à 14:28 #37845
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Biologie de synthèse
Je suis d'accord sur le fait que c'est entièrement inutilisable à l'heure actuelle. Moins sur le fait que c'est la même info recopiée des milliards de fois, c'est une version de Marseille =). Par ce principe le binaire n'est que la même info recopiée des milliards de fois (des O et des 1). L'occurrence de retrouver une séquence, disons, d'une centaines de paires de bases, identiques dans le génome n'est pas très élevée car tu omets toutes les régions non-codantes dans ton raisonnement. Et dans le cas précis, on parle de région non-codantes.

Edit : Encore une centaine de paires je suis gentille. Les motifs hyper-répétés de l'ADN ne dépassent que rarement la dizaine de paires.

Aujourd'hui, l'ADN, on sait le lire, lentement, avec difficulté, sans pouvoir accéder à une adresse précise des données et en détruisant l'enregistrement.

Non tu peux choisir l'endroit exact que tu veux lire. Ca ne détruit pas l'enregistrement si tu amplifie la séquence que tu veux lire avant !

L'écrire est encore plus difficile. Je ne pense pas qu'on ait l'usage pour une mémoire contenant des peta-octets dans 3 grammes mais qu'on ne peut lire qu'à 10 ko/s (et je suis généreux) et écrire à une vitesse encore inférieure.

ça oui ! Mais si nous sommes incapable de le faire aujourd'hui, la nature le fait. On peut penser (c'est sûrement ce que pense les gens qui travaillent là-dessus) qu'on pourrait y arriver un jour.
 
Dernière édition: 07/06/13 à 14:32 Par Pandora.
Le sujet a été verrouillé.
   07/06/13 à 15:48 #37847
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Biologie de synthèse
Mes infos sont un peu vieilles et j'avoue ne pas très bien connaitre le domaine. Voici ce que j'en comprends, je serai ravi de savoir ce qui est devenu obsolète :

Je me suis mal exprimé quand j'ai parlé d'info répétée. Quand on parle de "un gramme d'ADN", c'est une quantité qu'on a déjà produite, mais en recopiant (par polymérase, c'est bien ça?) des milliers (millions?) de fois un génome donné. Je ne crois pas que l'on ait jamais synthétisé un gramme d'ADN d'informations uniques. Donc quand on parle d'un peta-octet dans quelques milligrammes, on parle en fait de quelques centaines de copies d'une donnée de quelques gigas, est ce que je me trompe ?

Pour lire un génome, on doit le couper en petits morceaux, puis accrocher ces brins à des séquences connues, puis lire une par une ces bases. Cette étape nécessite de dupliquer l'ensemble de l'info stockée, augmentant d'autant le volume et la masse nécessaire. Combien de fois ? Mille fois ne me semblerait pas exagéré. Ce décodage se fait en parallèle sur l'ensemble du génome, donc en effet, on peut accéder à l'info qu'on veut, mais ça suppose d'avoir l'intégralité de l'info décodée en mémoire vive, ce qui annule un peu l'effet recherché, non?

Tu dis que la nature lit l'ADN très rapidement, mais qu'est ce que tu entends par là? Elle lit l'info en parallèle, mais pas spécialement rapidement il me semble. Il lui faut au minimum plusieurs minutes pour faire une mitose
 
Le sujet a été verrouillé.
   07/06/13 à 16:31 #37851
Jean Doute
«Pénétrons méthodiquement la raison des choses.»
Contributeur extraordinaire !
Messages: 885
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Sexe: Masculin Lieu:  de Pénétration méthodique de la raison des choses Date anniversaire: 21/12
 Re:Biologie de synthèse
Salut !

Edit : Encore une centaine de paires je suis gentille. Les motifs hyper-répétés de l'ADN ne dépassent que rarement la dizaine de paires.

C'est aussi de la redondance de code. Plus un stockage a une densité infos/espace forte plus la redondance doit être grande pour contre carré la fragilité du système.
l'ADN est assez fragile...
 
Le sujet a été verrouillé.
   07/06/13 à 16:31 #37852
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Biologie de synthèse
Je me suis mal exprimé quand j'ai parlé d'info répétée. Quand on parle de "un gramme d'ADN", c'est une quantité qu'on a déjà produite, mais en recopiant (par polymérase, c'est bien ça?) des milliers (millions?) de fois un génome donné. Je ne crois pas que l'on ait jamais synthétisé un gramme d'ADN d'informations uniques. Donc quand on parle d'un peta-octet dans quelques milligrammes, on parle en fait de quelques centaines de copies d'une donnée de quelques gigas, est ce que je me trompe ?


J'avoue ne pas être sûre de comprendre ce que tu veux dire ! Mais si j'ai bien compris tu dis qu'on n'a jamais synthétisé l'équivalent d'information d'un péta octet en ADN, mais plutôt 1000 fois un méga de la même information ? Si c'est ça, oui actuellement je ne pense pas, à ma connaissance que cela a été réalisé (pour des raisons de stabilité des polymérases après un certains temps de polymérisation principalement). Néanmoins comme le montre Craig Venter qui a su synthétiser un génome entier (certes simplifié) ça parait de moins en moins impossible !

Pour lire un génome, on doit le couper en petits morceaux, puis accrocher ces brins à des séquences connues, puis lire une par une ces bases. Cette étape nécessite de dupliquer l'ensemble de l'info stockée, augmentant d'autant le volume et la masse nécessaire. Combien de fois ? Mille fois ne me semblerait pas exagéré. Ce décodage se fait en parallèle sur l'ensemble du génome, donc en effet, on peut accéder à l'info qu'on veut, mais ça suppose d'avoir l'intégralité de l'info décodée en mémoire vive, ce qui annule un peu l'effet recherché, non?

La technique de séquençage que tu décris est la méthode par "shotgun" (c'est la vraie dénomination) utilisée pour séquencer le génome humain il y a quelques années. Aujourd'hui on a disposition le deep sequencing (Solexa Illumina) qui séquence des fragments entiers de grandes tailles en réalisant une copie base par base avec des fluorochromes différents pour chaque base qui sont lus au fur et à mesure par spectrophotométrie, le signal est ensuite ré-interprêté en temps réel. Pour te donner une idée, avec cette méthode, on peut séquencer le génome humain dans son intégralité en quelques heures. Pour le moment cette méthode reste très coûteuse et n'est utilisée que par des entreprises spécialisées, mais ça se démocratise.
Il existe quelques astuces pour lire l'endroit que tu veux. Imagine que chaque données que tu code dans l'ADN soit référencée par un numéro qui correspond à un point d'amorce PCR et ce n'est plus un problème. Certes il faut garder tous les numéros, il faut une base de registre. C'est moins lourd que les données elles-mêmes.

Tu dis que la nature lit l'ADN très rapidement, mais qu'est ce que tu entends par là? Elle lit l'info en parallèle, mais pas spécialement rapidement il me semble. Il lui faut au minimum plusieurs minutes pour faire une mitose

La vitesse de processing de la réplication est très élevée (environ 1000 nucléotides/s pour la polIII, la relecture la ralentie un peu tout de même), la vitesse de synthèse des ARNm par la polII est plus lente, je ne saurais dire mais ça doit être 500 nt/s. Comme tu le dis le fait que plusieurs enzymes sont actives en même temps accèlere encore le processus. Plusieurs minutes pour dupliquer des millions de paires de bases avec une fidélité parfaite c'est juste faramineux, je ne sais pas ce qu'il te faut de plus !
Ce qui nous limitait jusqu'à présent c'est l'élongation des fragments, il est facile in vitro de débuter une PCR avec l'amorce, mais les polymérases perdent vite de leur processivité/fidélité sur de long fragments. Dans la nature il y a de nombreux facteurs protéiques qui pallient à ce problème, il est difficile d'obtenir des solutions purifiées pour l'ensemble de ces facteurs. Par contre le génie génétique permet de créer des polymérases recombinantes bien plus puissantes que les naturelles, utilisées en deep sequencing. Il est probable que cet aspect là de la biologie (néo-synthèse) s'améliore en créant des système cellulaire exprimant un environnement parfait pour la réplication, plutôt qu'essayer d'utiliser un système ex-vivo comme maintenant. C'est là qu'entre encore la biologie synthétique !

Edit : JD, l'ADN n'est pas très fragile si on réalise le nombre d'agressions qu'il peut subir, contrairement à n'importe quel autre molécule biologique. Compare ne serait-ce que la demie-vie d'un ARN et d'un ADN ! Mais il y a en effet de la redondance, pas pour la fragilité de la structure, mais plutôt pour les erreurs de correction qui augmentent avec l'âge et le stress.
Double edit : D'ailleurs, si tu laisses une molécule d'ADN dans un milieu neutre, à l'écart de stress oxydant, il n'est pas loin d'être intemporel =)
 
Dernière édition: 07/06/13 à 16:35 Par Pandora.
Le sujet a été verrouillé.
   07/06/13 à 17:13 #37856
yquemener
Contributeur extraordinaire !
Messages: 1596
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
 Re:Biologie de synthèse
C'était bien ça que je voulais dire pour la densité d'info réelle :)

Merci pour l'update sur la technique de lecture. En effet, on peut imaginer d'avoir des amorces pour retrouver les données.

Par contre, 1000 nucléotides par seconde, même si biologiquement c'est surement impressionnant, pour l'informatique, c'est nul! Ca fait 4 Ko/s, tu ne voudrais pas de ça comme accès internet :)

La question que je me pose toutefois, c'est de savoir quelle serait la densité réelle d'une méthode de stockage ADN. Tu l'as dit, la lecture demande une reproduction préalable de l'info par polymérase. Mais combien il faut combien de copies pour que ça marche bien ? On arrive à quoi comme densité ?

Avec les cartes microSD, on est de l'ordre de 160 teraoctets par kilo. D'après un article(www.extremetech.com/extreme/134672-harva...a-into-a-single-gram), l'ADN est à à peu près 3000 fois ça. C'est impressionant, mais les contraintes techniques pour rendre ça utilisable peuvent vite bouffer ce facteur, tandis que la densité de la mémoire électronique continue d'augmenter...
 
Le sujet a été verrouillé.
   07/06/13 à 17:21 #37857
Pandora
Contributeur extraordinaire !
Messages: 378
Personne n'est hors ligne Cliquez ici pour voir le profil de cet utilisateur
Lieu: A l'horizon des évenements
 Re:Biologie de synthèse
Par contre, 1000 nucléotides par seconde, même si biologiquement c'est surement impressionnant, pour l'informatique, c'est nul! Ca fait 4 Ko/s, tu ne voudrais pas de ça comme accès internet :)


C'est sûr que c'est pas aussi bien. C'est pour ça que ça resterait plus du stockage longue durée, à mon avis.

La question que je me pose toutefois, c'est de savoir quelle serait la densité réelle d'une méthode de stockage ADN. Tu l'as dit, la lecture demande une reproduction préalable de l'info par polymérase. Mais combien il faut combien de copies pour que ça marche bien ? On arrive à quoi comme densité ?

La sensibilité de la méthode ne cesse de diminuer, là comme ça je ne saurais dire un chiffre exact. Avec les méthodes les plus récentes de séquençage on doit pouvoir utiliser une dizaine ou centaine de copies.
 
Le sujet a été verrouillé.
Revenir en hautPage: 123
Modérateur: Bobby, Jerem
Développé par KunenaObtenir les derniers messages directement sur votre PC - Version française:SFK