जानकारी

क्या जंक डीएनए को स्वभाव से ट्यूरिंग मशीन के रूप में इस्तेमाल किया जा सकता है?

क्या जंक डीएनए को स्वभाव से ट्यूरिंग मशीन के रूप में इस्तेमाल किया जा सकता है?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

यह देखने के लिए कि क्या इसमें "प्रोग्राम करने योग्य" पहलू है, डीएनए का अध्ययन किन तरीकों से किया गया है?

क्या प्रकृति ने कोशिका के भीतर ट्यूरिंग मशीन जैसा कुछ भी बनाया है, शायद "जंक डीएनए" को अपने कोड के रूप में उपयोग कर रहा है? मुझे उम्मीद है कि प्रकृति का रास्ता शायद बहुत गोल-मटोल होगा और कॉम्पैक्ट नहीं होगा।

नोट: मैं डीएनए कंप्यूटर बनाने के बारे में नहीं पूछ रहा हूं, क्योंकि यह प्रश्न हाल ही में बनने के लिए विपरीत था।


शायद यह सवाल यह है कि क्या कभी-कभी 'जंक डीएनए' के ​​रूप में जाने जाने वाले जीनों के बीच के क्षेत्रों का कोई कार्य होता है।

मानव जीनोम में, ~ 5 बिलियन आधारों में से 20-30,000 जीन जैसे कुछ होते हैं जो शायद 10 करोड़ आधार जोड़े लेते हैं, यह इस बात पर निर्भर करता है कि आप इसे कैसे गिनते हैं। सभी मानव डीएनए का 1% सामान्य आंकड़ा है।

इसे कभी-कभी ऐसे पूछा जाता है जैसे कि जीवविज्ञानी आमतौर पर इसका कोई उपयोग नहीं समझते हैं, लेकिन वास्तव में यह एक शोध का विषय है, और कुछ को लगता है कि इसका कोई विकासवादी या जैविक कार्य नहीं है।

यूकेरियोट्स में इंटरजेनिक डीएनए के लिए सबसे आम उपयोगों में से कुछ (बैक्टीरिया बहुत अलग प्रतिक्रियाओं के साथ एक पूरी तरह से अलग विषय हैं।

  • ट्रांसक्रिप्शनल विनियमन

जीन के कोडिंग अनुक्रमों के बाहर, प्रोटीन के लिए बाध्यकारी स्थानों का एक व्यापक सेट हो सकता है जो जीन को नियंत्रित करता है। चित्र 1 में इस पेपर में ENDO16 के प्रसिद्ध नियामक अनुक्रम को चित्र 1 में देखा जा सकता है। जैसा कि आप अल्मोएट 2000 बीपी के लिए देख सकते हैं, कई प्रकार के प्रमोटरों और अवरोधक कारकों के लिए कई बाध्यकारी साइटें हैं, साथ ही ऐसे कारक भी हैं जो अलग-अलग हो सकते हैं। विभिन्न तरीकों से जीन।

जैसा कि मुझे याद है, ENDO16 समुद्री मूत्र के विकास में केवल एक संक्षिप्त अवधि के लिए चालू होता है और इसलिए इसे बहुत कसकर नियंत्रित किया जाता है, जिसका अर्थ है कि इसके ऊपर बहुत सारे नियामक तत्व हैं, जो प्रतिलेखन को नियंत्रित करते हैं। यह अब तक के सबसे विस्तृत अध्ययन किए गए जीनों में से एक है और विश्वास है कि उनके पास इसका अधिकांश हिस्सा है। अन्य मानव जीनों ने चिकित्सा साहित्य को देखते हुए देखा है कि जीन के नियमन को पुन: उत्पन्न करने के लिए 20kb आवश्यक हैं। फिर भी यह सब सक्रिय रूप से शामिल डीएनए की मात्रा को केवल तीन गुना कर सकता है।

  • Centromeres और Telomeres गुणसूत्रों के शरीर विज्ञान में बड़े क्षेत्र होते हैं क्योंकि डेनिज़ का उल्लेख कोशिका प्रजनन और विकास के लिए आवश्यक है। जानवरों (मनुष्यों की तरह) में क्षेत्र लिखित जीन से रहित होते हैं और जीनोम की लंबाई का 10-15% हो सकता है (मैं इसे यूसीएससी जीनोम ब्राउज़र से chr21 पर देख रहा हूं - खमीर जैसे कुछ जीवों में सेंट्रोमियर कुछ ही हो सकता है सौ आधार जोड़े। तो वैसे भी हम अभी कहीं मिल रहे हैं!

  • गैर अनुवादित जीन। डीएनए के बहुत सारे टुकड़े हैं जिन्हें आरएनए में कॉपी किया जा सकता है और फिर प्रोटीन के लिए टेम्पलेट के रूप में कार्य नहीं करते हैं। कुछ लोग कहते हैं कि इसमें बहुत कुछ है। विशिष्ट दृष्टिकोण यह है कि इस प्रकार के कुछ हज़ार जानवर ज्ञात हैं, और वर्तमान में मनुष्यों के बारे में माना जाता है कि उनमें से लगभग 1500 हैं। जीनों की संख्या में एक छोटा सा बदलाव, लेकिन फिर भी वे मौजूद हैं।

  • क्रोमेटिन बंधन और संगठन स्थल हालांकि सेंट्रोमियर ऐसे स्थान हैं जहां क्रोमैटिन बांधता है, प्रोटीन के कई परिवार जो डीएनए को बांधते हैं और उन्हें संगठित कुंडलित कुंडलियों में लपेटते हैं, उन्हें न्यूक्लियोसोम बनाने के लिए टेलीफोन तार के स्पूल की तरह माना जाता है जो गुणसूत्रों को छोटे छड़ी वाले पुरुषों की तरह दिखता है। आप पाठ्य पुस्तकों में देखते हैं। क्रोमैटिन लगभग किसी भी प्रकार के डीएनए को स्पूल कर सकता है लेकिन ऐसा लगता है कि जीन के सिरों पर स्थित क्षेत्रों के लिए प्राथमिकता है। डीएनए अनुक्रम के कुछ वर्गों के लिए उनकी आत्मीयता को संशोधित करने के लिए उन्हें एंजाइमों (एसिलेटेड, मिथाइलेटेड) द्वारा संशोधित किया जा सकता है। यह शोध का एक गर्म विषय है। आरएनए पोलीमरेज़ के लिए जीन को ट्रांसक्रिप्ट करने की क्षमता अच्छी नहीं है यदि क्रोमेटिन पर इसका घाव है और हालांकि यह ट्रांसक्रिप्शन कारक की तरह एक सटीक बंधन नहीं है, क्रोमेटिन बाइंडिंग और विनियमन जीन और डीएनए अनुक्रमों के बीच की दूरी में परिवर्तन से बहुत प्रभावित होना चाहिए। हजारों आधार जोड़े के लिए एक जीन को घेरें, जो प्रजातियों के बीच मुख्य अंतरों में से एक है।

सभी जैविक प्रणालियों में से (कम से कम जो मुझे पता है) यह सबसे अधिक थोक डीएनए अनुक्रम के लिए है और संभवतः प्रतिलेखन कारकों के रूप में विभिन्न प्रजातियों के बीच अंतर से संबंधित है और लगभग निश्चित रूप से जीन विनियमन की एक पुरानी प्रणाली है, यदि आप इसके बारे में सोचते हैं यह।

  • प्रतिलिपि संख्या भिन्नताएं और दोहराव वाले क्षेत्र केवल एक साइड नोट हैं, लेकिन छोटे और बहुत लंबे दोहराव अनुक्रम इंटरजेनिक क्षेत्रों के साथ-साथ व्यक्तियों के बीच कुछ अंतरों के लिए जीन सीमा के अंदर भी दिखाई दे सकते हैं। वे काफी छोटे या काफी लंबे हो सकते हैं।

अच्छा आशा है कि यह मदद करता है?


"गैर-कोडिंग" से आपका क्या मतलब है इस पर निर्भर करता है।

टेलोमेरेस और सेंट्रोमियर में संरचनात्मक तत्व होते हैं - हालांकि डीएनए प्रोटीन के लिए कोड नहीं करता है, यह गुणसूत्र की त्रि-आयामी संरचना में योगदान देता है।

"गैर-कोडिंग" डीएनए कई प्रोटीनों के लिए बाध्यकारी सब्सट्रेट के रूप में भी कार्य कर सकता है: ट्रांसक्रिप्शन कारक, एन्हांसर, हिस्टोन प्रोटीन; और इस प्रकार इन बिचौलियों के माध्यम से परोक्ष रूप से विनियमन को नियंत्रित करते हैं।

संचरित/अनुवादित क्षेत्रों के अपस्ट्रीम प्रमोटर क्षेत्र हमारे जीनोम के कॉम्बिनेटरियल कंट्रोल स्विच/डायल हैं, और इनका जबरदस्त नियामक महत्व है।

गैर-कोडिंग डीएनए मोबाइल डीएनए तत्वों के प्रदर्शनों की सूची के रूप में भी कार्य करता है, जो एक्सॉन को कॉपी और पेस्ट करके (L1 ट्रांसडक्शन) या कोडिंग क्षेत्रों में कॉपी करके और उन्हें बाधित करके तेजी से विकास / "प्लास्टिसिटी" को सक्षम बनाता है।

अंत में, वे विकास के सैंडबॉक्स के रूप में कार्य कर सकते हैं: गैर-कोडिंग क्षेत्र जो आनुवंशिक रूप से कार्यात्मक क्षेत्रों से जुड़े नहीं हैं, वे शुद्ध चयन से ग्रस्त नहीं हैं, इसलिए वे यादृच्छिक विकास के टेम्पलेट्स के रूप में कार्य कर सकते हैं - जहां अधिकांश उत्परिवर्तन नहीं होंगे कोई प्रभाव सकारात्मक या नकारात्मक है। यह बिल्कुल नए संयोजनों की खोज करने में सक्षम बनाता है, जो तब नए एक्सॉन / miRNA / नियामक क्षेत्र बन सकते हैं या नई कार्यक्षमता को सक्षम करने के लिए अन्य क्षेत्रों में फेरबदल कर सकते हैं।


प्रोग्राम करने योग्य से, मुझे लगता है कि आपका मतलब है कि इसमें जानकारी है या कुछ इनपुट या उत्तेजना के जवाब में इसे बदला जा सकता है। उत्तर दोनों के लिए "नहीं" है। अच्छी तरह की।

क्या नॉनकोडिंग डीएनए में जानकारी होती है? परिभाषा के अनुसार, नहीं। जीनोम के शायद ऐसे कई क्षेत्र हैं जिनमें कोई जानकारी नहीं है, केवल बाद में इंट्रोन, नियामक तत्व जैसे एन्हांसर्स, सीमा तत्व, एमएआर/एसएआर, लक्ष्यीकरण साइट इत्यादि पाए जाते हैं। यहां तक ​​​​कि कार्यात्मक परीक्षण (जैसे हटाने) क्षेत्र) कुछ भी प्रकट नहीं कर सकते हैं क्योंकि प्रभाव मामूली हो सकते हैं, या केवल विशेष परिस्थितियों में स्पष्ट हो सकते हैं। लेकिन यकीनन, यदि आप किसी क्षेत्र को हटाते हैं और इसका जीव पर प्रभाव पड़ता है, तो यह वास्तव में एक नॉनकोडिंग डीएनए नहीं है, बस आपने पहले कोडिंग को नहीं देखा है।

उत्तरार्द्ध के लिए, क्या यह बदल सकता है, उत्तर फिर से "नहीं," या कम से कम "जाहिरा तौर पर नहीं" है। इंटरजेनिक क्षेत्र (डीएनए के वे खंड जिनमें स्पष्ट या विशिष्ट लिखित क्षेत्र या उनके नियंत्रण तत्व नहीं होते हैं) जीवों के बीच और यहां तक ​​कि प्रजातियों के बीच बहुत स्थिर होते हैं। ऐसा लगता है कि उनके पास कोई जानकारी नहीं होने के कारण एक उत्परिवर्तन दर की उम्मीद है, और इस प्रकार धीरे-धीरे बिना बहे उत्परिवर्तित होने के लिए स्वतंत्र हैं। जीनोम के किसी भी क्षेत्र को उद्देश्यपूर्ण रूप से परिवर्तित किए जाने का कोई सबूत नहीं है (जहां तक ​​​​मुझे पता है), कुछ विशिष्ट जीनों के अपवाद के साथ जिनके विनियमन को डीएनए निकिंग या कुछ ऐसे द्वारा नियंत्रित किया जाता है।

शायद मुझे आपका प्रश्न याद आ रहा है, एक जीवविज्ञानी होने के नाते और वास्तव में यह नहीं जानना कि "ट्यूरिंग मशीन" क्या है। अगर मैंने गलत समझा, तो कृपया स्पष्ट करें।


मैं बहुत हैरान हूं कि किसी ने डीएनए-कंप्यूटिंग के क्षेत्र का उल्लेख नहीं किया। यह लियोनार्ड एडलमैन और रिचर्ड लिप्टन द्वारा प्रमाणित है कि आप डीएनए अणुओं के साथ गणना कर सकते हैं।

एडलमैन के लेख में वे यात्रा-विक्रेता-समस्या के उदाहरण को हल करने के लिए एक प्रयोग प्रस्तुत करते हैं। क्योंकि यह समस्या एनपी में है, कोई कह सकता है कि डीएनए ट्यूरिंग-पूर्ण है।

एडलमैन का लेख

गहरी समझ के लिए देखें


औपचारिक गणना के विषय में प्रकृति ने बहुत अच्छा किया है। इतना कि हम अभी भी इसकी गति बनाए रखने की कोशिश कर रहे हैं।

आपके प्रश्न के बारे में, यह "गैर-कोडिंग डीएनए" की आपकी परिभाषा पर निर्भर करता है।

सामान्य तौर पर, डीएनए एक साथ इसके रखरखाव के प्रभारी मशीनरी के साथ है ट्यूरिंग-कई अर्थों में पूर्ण। उदाहरण के लिए, मोबाइल आनुवंशिक तत्वों के अस्तित्व पर एक नज़र डालें: उनमें से कुछ रिवर्स ट्रांसक्रिपटेस के लिए "सबप्रोग्राम" कोडिंग हैं जो बदले में मूल प्रोग्राम को पुन: पेश करने में सक्षम हैं। मुझे ध्यान देना चाहिए कि लैम्ब्डा-कैलकुलस जैसे ट्यूरिंग-पूर्ण औपचारिकता के साथ ऐसा करने के लिए, आपको काफी लंबा और जटिल कार्यक्रम करने की आवश्यकता है: http://crpit.com/confpapers/CRPITV26Larkin.pdf। और लैम्ब्डा कैलकुलस नंगे ट्यूरिंग-मशीनों की तुलना में "आसान" है, जिसका अर्थ है कि आप एक ही काम करने के लिए ट्यूरिंग मशीनों की तुलना में छोटे प्रोग्राम लिख सकते हैं। तो, मेरा (किसी तरह विशिष्ट) तर्क यह है कि आत्म-प्रतिकृति में सक्षम वास्तविक दुनिया की कोई भी सूचना मशीन उच्च संभावना ट्यूरिंग-मशीन समकक्ष के साथ है।

यह बस होता है कि मोबाइल आनुवंशिक तत्वों की आवश्यक विशेषता इसके अस्तित्व को सुनिश्चित करना है, इसलिए, शायद यही कारण है कि हमें डीएनए का एक टुकड़ा नहीं मिला है जो वर्गमूल की गणना के रूप में दिलचस्प है।

यदि आप डीएनए के उस हिस्से का उल्लेख करते हैं जो कुछ भी नहीं कर सकता है, तो ठीक है, ट्यूरिंग-मशीन और गणना के बारे में बात करने के लिए आपको एक ऐसे तरीके की आवश्यकता है जिसमें कुछ "डेटा" को प्रोग्राम के रूप में "व्याख्या" किया जा सके। डीएनए का एक पूरी तरह से निष्क्रिय टुकड़ा परिभाषा के अनुसार उस भूमिका को नहीं भरता है।


मैं आपके प्रश्न का उत्तर दो भागों में बांटकर देता हूं:

क्या ट्यूरिंग मशीन के लिए डीएनए को प्रोग्राम योग्य माध्यम (= बैंड) के रूप में इस्तेमाल किया जा सकता है?

उत्तर है हां।

शापिरो एट अल द्वारा ब्रेकिंग पेपर से शुरू। प्रकृति में, उसके बाद पार्कर द्वारा एक और महान लेख, कंप्यूटिंग के लिए डीएनए का उपयोग करने के तरीके के बारे में कई वैज्ञानिक प्रकाशन हैं। दुर्भाग्य से, ये निष्कर्ष अभी भी क्लासिक संगणनाओं के लिए लागू नहीं हैं और निकट भविष्य में डीएनए कंप्यूटर शायद ही सामान्य लोगों को प्रतिस्थापित करेंगे।

क्या जंक डीएनए ट्यूरिंग मशीन के रूप में काम कर सकता है?

कंप्यूटर विज्ञान में एक ज्ञात सिद्धांत है जिसे "जंक इन, जंक आउट" कहा जाता है। डीएनए के मामले में भी - कंप्यूटिंग के लिए जंक डीएनए का उपयोग करने का एक तरीका है, लेकिन गणना का नतीजा अधिकतर जंक भी होगा: जब तक हम नहीं जानते कि यह डीएनए किस लिए है, और यह नहीं है अपने आप में ट्यूरिंग मशीन के रूप में काम करते प्रतीत होते हैं, इस डीएनए को ट्यूरिन मशीन पर चलाकर कुछ उचित प्राप्त करना शायद ही संभव हो ...


जंक डीएनए वास्तव में बायोकंप्यूटिंग के लिए वास्तव में उपयोगी हो सकता है

डॉ. हर्बर्ट पूछते हैं कि क्या होगा यदि हमारा जीनोम पहले विश्वास किए गए सभी लोगों की तुलना में कहीं अधिक स्मार्ट था? क्या होगा यदि कई डीएनए दोहराने वाले तत्व एक नए प्रकार के बायोकंप्यूटर के निर्माण की नींव रखते हैं? यह दृष्टिकोण स्टोन-कोल्ड हार्डवेयर के बजाय स्व-नवीनीकरण वेटवेयर के साथ की गई गणनाओं को सक्षम करेगा, डीएनए पर आधारित लॉजिक सर्किट के लिए द्वार खोलेगा जो एक राज्य से दूसरे राज्य में फ़्लिप करता है, जिस तरह से सिलिकॉन "चालू" और "बंद" स्विच करता है।

इस तरह का डीएनए कंप्यूटर कैसे काम कर सकता है? सरल दोहराव को इसलिए कहा जाता है क्योंकि डीएनए अनुक्रम कई बार खुद को बार-बार दोहराता है। उपयोगी गुणों के साथ डीएनए संरचनाओं के निर्माण के लिए दोहराव वास्तव में महान हैं। वाटसन और क्रिक द्वारा वर्णित रोजमर्रा के बी-डीएनए के बजाय, कुछ डीएनए अनुक्रमों के दोहराव कुछ विदेशी उच्च-ऊर्जा 3 डी संरचनाओं में रूपांतरित हो सकते हैं। वे बाएं हाथ के डुप्लेक्स, तीन-फंसे हुए ट्रिपलक्स और चार-फंसे हुए क्वाड्रुप्लेक्स बना सकते हैं। विभिन्न डीएनए संरचनाएं बदलती हैं कि आरएनए बनाने के लिए डीएनए से जानकारी कैसे पढ़ी जाती है।

वे दोहराव अनुक्रम जो एक डीएनए संरचना से दूसरे में स्विच करने में सक्षम होते हैं, फ्लिपॉन कहलाते हैं। सामूहिक रूप से, डॉ. हर्बर्ट इन फ़्लिपॉन और उनकी संबद्ध कार्यक्षमता को फ़्लिपोनवेयर के रूप में संदर्भित करते हैं। Fliponware एक सेल के लिए सही वेटवेयर उपकरण बनाने के लिए मंच तैयार करता है और काम को पूरा करने के लिए सही आनुवंशिक कार्यक्रम चलाता है। यह एक सेल के लिए अपने पर्यावरण से चुनौतियों को दूर करने के लिए विभिन्न आरएनए-आधारित कार्यक्रमों में जीन के टुकड़ों के संयोजन की अनुमति देता है।

डॉ. हर्बर्ट उदाहरण देते हैं कि कैसे फ़्लिपॉन का उपयोग आनुवंशिक प्रोग्राम बनाने के लिए किया जा सकता है, यह वर्णन करते हुए कि उन्हें लॉजिक गेट्स में वायर्ड किया जा सकता है जिन्हें कंप्यूटर को कार्य करने की आवश्यकता होती है। फ़्लिपॉन लॉजिक गेट 'AND' या 'NOT' ऑपरेशन कर सकते हैं। ट्यूरिंग द्वारा पहले वर्णित एक सार्वभौमिक कंप्यूटर के लिए आवश्यक बूलियन संचालन करने के लिए कई को जोड़ा जा सकता है। तार्किक संचालन के लिए जीनोम में उनका उपयोग ट्यूरिंग मशीन के काम करने के तरीके से मिलता-जुलता है, लेकिन ट्यूरिंग टेप के बजाय, सेल परिणाम रिकॉर्ड करने के लिए आरएनए का उपयोग करता है। प्रसंस्करण चरणों की श्रृंखला तय करती है कि आरएनए संदेश स्थिर है या नहीं और आनुवंशिक कार्यक्रम को निष्पादित करना है।

कई उपन्यास आरएनए असेंबलियों को कभी भी उपयोग किए बिना ट्रैश कर दिया जाता है - उनकी आवश्यकता नहीं हो सकती है या उनकी असेंबली दोषपूर्ण है (ट्यूरिंग मशीन से FALSE परिणाम के बराबर)। वे संदेश जो बने रहते हैं वे सेल के कोडनवेयर बन जाते हैं (तार्किक रूप से ट्यूरिंग मशीन से TRUE परिणाम के समान)। कोडनवेयर जिसके परिणामस्वरूप परिणाम होता है, वे वेटवेयर द्वारा कोशिका के जीव विज्ञान को परिभाषित करते हैं, जिसके उत्पादन को वे निर्देशित करते हैं।

गणना का यह रूप पहले से वर्णित डीएनए कंप्यूटरों से अलग है जो बिना फ्लिपॉन के बनाए गए हैं। ये अन्य उपकरण इस बात पर निर्भर करते हैं कि डीएनए अनुक्रम के जोड़े एक दूसरे से मेल खाते हैं या नहीं। यदि वे करते हैं, तो मैच अगले गणना चरण को सक्षम करते हैं। फ्लिपॉन कंप्यूटर कई मायनों में डीएनए मिलान का उपयोग करने वालों से भिन्न होते हैं। सबसे पहले, कुछ फ्लिपोन बहुत तेजी से (मिलीसेकंड में) स्विच करते हैं क्योंकि उन्हें केवल एक 3D संरचना से दूसरे में बदलने की आवश्यकता होती है, बिना मिलान करने के लिए डीएनए की खोज करने की आवश्यकता के बिना। फ़्लिपऑन को चालू या बंद करना कई अलग-अलग तरीकों से संभव है। उदाहरण के लिए, केवल डीएनए को खींचने से फ्लिपोन मॉर्फ हो सकते हैं, या वे तापमान में बदलाव या नमक एकाग्रता में बदलाव के कारण फ्लिप कर सकते हैं।

फ़्लिपोनवेयर, वेटवेयर और कोडनवेयर का संयोजन एक सिलिकॉन कंप्यूटर में प्रोग्राम कोड, मशीन भाषा और हार्डवेयर के अनुरूप है। इनमें से प्रत्येक बायोवेयर सेट में सीखने को सक्षम करने के लिए मेमोरी होती है। वे खराब परिणामों को रोकने के लिए त्रुटि सुधार का उपयोग करते हैं। जबकि फ़्लिपोन सरल अनुक्रमों के साथ बनाए जाते हैं, कोडनवेयर जटिल अनुक्रम मिश्रणों से बनाए जाते हैं। जानकारी सेल को वेटवेयर बनाने के बारे में बहुत विस्तृत जानकारी प्रदान करती है। सरल शब्दों में, फ्लिपोनवेयर निर्देश देता है कि किसी विशेष कार्य के लिए कौन से उपकरण का उपयोग करना है, कोडनवेयर बताता है कि उपकरण कैसे बनाना है, और वेटवेयर काम करता है।

डॉ. हर्बर्ट कहते हैं, "मुझे उम्मीद है कि जल्द ही फ्लिपोनवेयर के लिए कई रोमांचक और लाभकारी अनुप्रयोग होंगे। सरल अनुक्रम आपके दादा-दादी के कबाड़ नहीं हैं - इसके बजाय वे अंगूठे के नियमों की तरह हैं जो जीवन को सरल बनाते हैं, कई वर्षों के विकास में हासिल किए गए हैं।"

Fliponware में कई तात्कालिक अनुप्रयोग हैं:

    1. चिकित्सीय अनुप्रयोग (फ्लिपॉन राज्यों के लिए लक्षित दवाएं जो कैंसर या सूजन संबंधी बीमारियों को सक्षम करती हैं)
    2. बायोसेंसर (पर्यावरण परिवर्तनों का पता लगाने के लिए)
    3. लगातार डीएनए मेमोरी (क्वाड्रप्लेक्स के बनने के बाद अत्यधिक स्थिरता का शोषण)
    4. सेलुलर स्विच (इनपुट में बदलाव के जवाब में आउटपुट में बदलाव)
    5. उपन्यास डीएनए नैनो-आर्किटेक्चर (3डी संरचना का गठन फ्लिपॉन राज्य पर निर्भर करता है)

इनसाइडऑटबायो के बारे में

इनसाइडऑटबायो एक स्टार्ट-अप है जो कैंसर कोशिकाओं के भीतर स्वयं / गैर-मार्गों को पुन: प्रोग्राम करके प्रतिरक्षा प्रणाली को मारने के लिए ट्यूमर को 'प्रकाश' करने के लिए अगली पीढ़ी के कैंसर चिकित्सा विज्ञान को विकसित करने पर केंद्रित है। डॉ. हर्बर्ट इनसाइडऑटबायो में खोज का नेतृत्व करते हैं। जेड-डीएनए पर उनका काम फ्लिपॉन की खोज के लिए आधारभूत था। इनसाइडऑटबायो के बारे में ये कथन सेफ-हार्बर कानूनों का अनुपालन करते हैं। वे दूरंदेशी हैं और ज्ञात और अज्ञात जोखिमों और अनिश्चितताओं को शामिल करते हैं। वे भविष्य के प्रदर्शन की गारंटी नहीं हैं और उन पर अनुचित निर्भरता नहीं रखी जानी चाहिए।


ट्यूरिंग मशीन, सेल और दोनों को क्यों डिज़ाइन किया गया है

पिछली पोस्ट में (यहां देखें) मैंने लिखा था: “ एक कंप्यूटर होने के लिए एक स्व-प्रजनन ऑटोमेटन के लिए आवश्यक लेकिन पर्याप्त शर्त नहीं है। जैविक कोशिकाएं स्व-प्रजनन करती हैं इसलिए कंप्यूटर के रूप में काम करती हैं। लेकिन “कंप्यूटर” एक बहुत ही सामान्य शब्द है (इसका अर्थ है गणना, गणना, प्रक्रिया की जानकारी, नियमों और निर्देशों में सक्षम उपकरण)। कंप्यूटर-विज्ञान बढ़ती जटिलता के मॉडलों की एक श्रृंखला का अध्ययन करता है, जो “कंप्यूटर” के नाम के योग्य हैं। इन मॉडलों का संक्षेप में विश्लेषण करना और यह पता लगाना दिलचस्प हो सकता है कि इनमें से कौन सी कोशिकाएँ अधिक समान हैं। साथ ही मुझे उम्मीद है कि मेरे विश्लेषण से उस पोस्ट में कही गई बातों को और स्पष्ट कर दिया जाएगा।

कंप्यूटिंग आर्किटेक्चर की श्रृंखला अमूर्त राज्य मशीनों से उन वास्तविक कंप्यूटरों और सर्वरों तक जाती है जिनका हम आजकल उपयोग करते हैं। निर्देशों को संसाधित करने में सक्षम पहला बुनियादी मॉडल परिमित राज्य मशीन (एफएसएम) है। यह एक नियंत्रक है जो इनपुट प्राप्त करता है और क्रमिक रूप से विभिन्न आंतरिक राज्यों का एक सीमित सेट मानकर आउटपुट उत्पन्न करता है। एक सेल के अंदर कई गतिविधियां एफएसएम प्रक्रियाओं के रूप में विन्यास योग्य (पहले कच्चे सन्निकटन के रूप में) होती हैं क्योंकि वे इनपुट और आउटपुट को संसाधित करते समय कई अलग-अलग राज्यों को दर्शाती हैं। इनपुट और आउटपुट कुछ भी हो सकता है या घटना हो सकती है (एक जीन को चालू करने के लिए ट्रिगर सिग्नल के रूप में, प्रोटीन का निर्माण और इसी तरह)। विभिन्न आंतरिक अवस्थाएँ संबंधित हो सकती हैं, कह सकते हैं, कौन से जीन चालू हैं और क्या बंद हैं, या कोशिका के जीवन के विभिन्न चरणों आदि से संबंधित हैं। जटिल संक्रमण तालिका की एक जैविक प्रक्रिया के लिए संकलन, रचना की गई सभी चौगुनी इसका मतलब है कि आणविक, रासायनिक और भौतिक स्तर पर उस प्रक्रिया का पूरा ज्ञान। जाहिर है इसका मतलब यह नहीं है कि सेलुलर प्रोसेसिंग को अन्य मॉडलिंग भाषाओं के माध्यम से मॉडलिंग नहीं किया जा सकता है। चूंकि सेल की जटिलता में इसके कई वितरित उप-प्रणालियों द्वारा किए गए कई समवर्ती गतिविधियों को शामिल किया गया है, इसलिए इसे पेट्री नेट सूट की अधिक शक्तिशाली औपचारिकताओं द्वारा भी बेहतर तरीके से वर्णित किया जा सकता है, जिन्हें वास्तव में रासायनिक प्रक्रियाओं से किसी भी वास्तविक- विश्व प्रक्रिया। लेकिन यहां जो मायने रखता है, उसके लिए हमें अभी इस तर्क में प्रवेश करने की आवश्यकता नहीं है, क्योंकि इन विभिन्न वर्णनात्मक औपचारिकताओं को देखते हुए, निष्कर्ष नहीं बदलेगा।

दूसरा अमूर्त कंप्यूटिंग मॉडल विशेष ट्यूरिंग मशीन (टीएम) है, जो एक मेमोरी को पढ़ने और लिखने की अतिरिक्त क्षमता के साथ एक एफएसएम (नियंत्रण इकाई) है। एलन ट्यूरिंग ने एक टेप के रूप में स्मृति की कल्पना की लेकिन यह जानकारी संग्रहीत करने में सक्षम कोई भी समर्थन हो सकता है। उनकी मशीन के एक संस्करण में दो टेप थे, एक पढ़ने के लिए और दूसरा पढ़ने/लिखने के लिए, लेकिन अवधारणात्मक रूप से और गणना शक्ति के दृष्टिकोण से कोई फर्क नहीं पड़ता। स्मृति के प्रत्येक सेल में एक प्रतीक हो सकता है (प्रतीकों की एक सीमित वर्णमाला से चुना गया)। मेमोरी इनपुट (फ्रंट-लोडेड माना जाता है) और आउटपुट (जिसे निष्पादन के दौरान FSM द्वारा लिखा जाएगा) को होस्ट करता है। नियंत्रण इकाई में वह प्रोग्राम होता है जो इनपुट से आउटपुट उत्पन्न करता है। एक TM केवल एक विशिष्ट कार्य (जो कि उसके FSM के कार्यक्रम में वर्णित है) कर सकता है।

चूंकि एक सेल, एफएसएम के रूप में काम करने से परे, पढ़ने और लिखने में सक्षम है, एक टीएम के रूप में व्यवहार कर सकता है। वास्तव में एक कोशिका में डीएनए-आरएनए प्रतीक (ए, टी, जी, सी, यू) वर्णमाला हैं। डीएनए आणविक “टेप” है जिसे डीएनए और आरएनए पोलीमरेज़ मशीनरी पढ़ सकते हैं। क्या डीएनए केवल पढ़ने के लिए है या लिखने योग्य भी है? आणविक जीव विज्ञान के तथाकथित 'केंद्रीय सिद्धांत' (जिसका अर्थ है कि डीएनए केवल-पढ़ने के लिए है) को हाल ही में कुछ घटनाओं (गैर-कोडिंग आरएनए, रिवर्स ट्रांसक्रिपटेस, एपिजेनेटिक्स, आदि) की खोज करके आंशिक रूप से अस्वीकृत कर दिया गया है। इन निष्कर्षों से पता चलता है कि एक मायने में डीएनए भी लिखने योग्य है, तो सूचना दोनों तरीकों से प्रवाहित हो सकती है। हालाँकि, यदि डीएनए गैर-लिखने योग्य था, तो ऐसी कई स्थितियाँ हैं जहाँ कोशिका की नियंत्रण इकाई डेटा लिखती है (जैसे आरएनए प्रतिलेखन, डीएनए दोहराव)। आदर्श रूप से हम इन सभी आउटपुट आणविक अनुक्रमों को एक लंबे स्ट्रैंड में जोड़ सकते हैं और इस तरह सेल दो-टेप टीएम लगता है।

तीसरा कंप्यूटिंग मॉडल यूनिवर्सल ट्यूरिंग मशीन (UTM) है। यह FSM के साथ एक अधिक शक्तिशाली TM है, जो कुछ विशेष बूटस्ट्रैप निर्देशों के लिए धन्यवाद, मेमोरी में संग्रहीत किसी भी प्रोग्राम को चला सकता है। ये प्रोग्राम अलग-अलग निर्देश तालिकाएं हैं (एक विशेष टीएम में इसकी नियंत्रण इकाई में केवल एक तालिका होती है और इस तरह केवल एक कार्य चला सकता है)। एक वास्तविक UTM संभावित रूप से जो भी एल्गोरिथम (चर्च की थीसिस) काम कर सकता है। मैं कहता हूं “संभावित रूप से” क्योंकि निश्चित रूप से एक UTM केवल उसकी मेमोरी में वास्तव में स्थापित एल्गोरिदम को काम कर सकता है। इसकी सार्वभौमिकता क्षमता है। एक सेल को ठीक से UTM नहीं माना जा सकता है क्योंकि इसकी मेमोरी में कई अलग-अलग कोड हो सकते हैं, उनमें से प्रत्येक विशेष रूप से एक अलग जैविक कार्य के लिए समर्पित है, लेकिन यह संभावना नहीं है कि यह कोई एल्गोरिथम चला सकता है। तथाकथित डीएनए-कंप्यूटिंग या “आण्विक प्रोग्रामिंग” विशेषज्ञ जो करने की कोशिश कर रहे हैं, वह वैज्ञानिक समस्याओं को हल करने के लिए सेलुलर मशीनरी का उपयोग यूटीएम के रूप में करना है, जिसका जीव विज्ञान से कोई लेना-देना नहीं है, इसे संशोधित करके और अंततः कुछ बाहरी मैनुअल का सहारा लेना प्रयोगशाला में संचालन।

चौथा कंप्यूटिंग मॉडल वॉन न्यूमैन मशीन है। यह एक स्टोर-प्रोग्राम रजिस्टर-आधारित UTM है जो बाहरी दुनिया से/में इनपुट और आउटपुट करने में सक्षम है। विशेष रूप से एक वॉन न्यूमैन यूनिवर्सल सेल्फ-रेप्लिकेटर (ऊपर संदर्भित पोस्ट में इसका विवरण देखें) इसकी स्मृति में स्व-प्रतिकृति का एक विशेष कार्यक्रम है और आउटपुट स्वयं की एक प्रति हो सकता है। हम कह सकते हैं कि एक सेल वॉन न्यूमैन सेल्फ-रेप्लिकेटर के समान है, लेकिन यह संभावना नहीं है कि एक सेल वास्तव में एक सार्वभौमिक है क्योंकि यह UTM नहीं है (ऊपर देखें) और यह किसी भी चीज को दोहरा नहीं सकता है। हालांकि कोशिकाएं बाहरी कोड चला सकती हैं: वास्तव में वे वायरस को दोहरा सकते हैं, अर्थात “ एलियन” डीएनए निर्देश (स्वयं से स्वयं-प्रतिकृति करने में सक्षम नहीं) जो स्वयं-प्रतिकृति होने के लिए परजीवी रूप से एक कोशिका को संक्रमित करते हैं। लेकिन सार्वभौमिकता की संपत्ति एक मजबूत धारणा है और जहां तक ​​हम जानते हैं, कोशिकाओं में ऐसी संपत्ति नहीं होती है।

इंटेलिजेंट डिज़ाइन के दृष्टिकोण से यह जानना महत्वपूर्ण है कि क्या कोई चीज़ डिज़ाइन की गई है। हम एक टीएम पर विचार कर सकते हैं और पूछ सकते हैं कि क्या यह अनियंत्रित विकास से उत्पन्न हो सकता है, जो कि केवल संयोग और आवश्यकता द्वारा संचालित चरण-दर-चरण वृद्धिशील प्रक्रिया के माध्यम से हो सकता है। क्या हम पाते हैं कि केवल एक टीएम विकास से उत्पन्न नहीं हो सकता है, तो बड़े कारण से, यह देखते हुए कि एक सेल एक टीएम से अधिक कुछ है और स्वयं-प्रजनन करता है, सेल पर डिजाइन अनुमान सीधा होगा।

अब देखते हैं कि टीएम विकास का उत्पाद क्यों नहीं हो सकता है। गतिशील रूप से एक टीएम का सरल तरीके से वर्णन करने के लिए हम इसे एक मशीन के रूप में सोच सकते हैं जो संक्रमणों के अनुक्रम (संक्रमण तालिका) से गुजरती है। इनमें से प्रत्येक संक्रमण निम्नलिखित मदों से बना है: जिस राज्य में टीएम अब है, प्रतीक पढ़ा जाता है, लिखा जाने वाला प्रतीक (अंततः कोई लेखन नहीं), टेप पर बदलाव और अगली स्थिति। इसलिए एक कार्यशील टीएम होने के लिए हमें निम्नलिखित तत्वों से बना एक सेट चाहिए: (1) एक संक्रमण तालिका (2) प्रतीकों की एक वर्णमाला (3) प्रतीकों को संग्रहीत करने के लिए एक टेप (4) पढ़ने/लिखने की क्षमता (5) टेप के पार जाने की क्षमता। यह देखना आसान है कि यह सेट इरेड्यूसीबली कॉम्प्लेक्स (आईसी) है। #1 के बिना TM को कुछ भी नहीं पता कि क्या करना है। #2 के बिना मशीन टेप के पार जाती है लेकिन पढ़ने या लिखने के लिए कुछ भी नहीं है। #3 के बिना मशीन पढ़ने और लिखने की कोशिश करती है लेकिन कोई टेप नहीं है। #4 के बिना टीएम प्रतीकों वाले टेप के पार चला जाता है लेकिन मशीन न तो पढ़ती है और न ही लिखती है। #5 के बिना टीएम हमेशा टेप के एक ही प्रारंभिक बिंदु पर तय होता है और परिणामस्वरूप कुछ भी नहीं होता है। कार्यात्मक समुच्चय TM = <1,2,3,4,5>IC है क्योंकि इसके पांच कार्य शुरुआत से ही आवश्यक हैं। आईसी अनुमान एक मजबूत है, इस अर्थ में कि आईसी अपने निर्देशित और निर्देशित दोनों अर्थों में विकास से इनकार करता है: बस एक आईसी प्रणाली में कोई कार्यशील अग्रदूत नहीं होता है।

अब सेलुलर दायरे में चलते हैं। यह समझने के लिए कि कोशिका एक TM के रूप में व्यवहार करती है, इसकी TM गतिविधियों में से एक पर विचार करना पर्याप्त है, उदाहरण के लिए RNA प्रतिलेखन प्रक्रिया। यदि हम जीन की एक श्रृंखला के प्रतिलेखन पर विचार करते हैं तो क्रमिक रूप से किए गए ऑपरेशन एक संक्रमण तालिका के समान होते हैं। विवरण को सरल बनाने के लिए एकल न्यूक्लियोटाइड द्वारा चरणबद्ध पठन के बजाय संपूर्ण जीन को एक ब्लॉक के रूप में पढ़ने पर विचार करें। ऐसा करने से कुछ भी आवश्यक परिवर्तन नहीं होता है। प्रणाली प्रारंभिक अवस्था से शुरू होती है और आरएनए-पोलीमरेज़ को डीएनए स्ट्रैंड पर पहले जीन प्रमोटर की स्थिति में रखने और आधार द्वारा जीन बेस को पढ़ने का आदेश देती है। संबंधित आरएनए आउटपुट होता है। आरएनए-पोलीमरेज़ को दूसरी स्थिति में जाने के लिए निर्देशित किया जाता है। आंतरिक स्थिति बदल जाती है, अन्य डीएनए रीडिंग और आरएनए लेखन चरण किए जाते हैं, एक नई अवस्था में पहुंच जाती है, और इसी तरह। बेशक कई अन्य टीएम सेलुलर प्रक्रियाएं हैं, आरएनए संश्लेषण से भी अधिक जटिल। निम्न चित्र एक दो-टेप TM दिखाता है (संख्याएँ उपरोक्त सूची के अनुसार IC फ़ंक्शन का प्रतिनिधित्व करती हैं):

मुझे ऐसा लगता है कि ये संक्षिप्त नोट्स यह समझाने के लिए पर्याप्त होंगे कि कोशिकाओं में कुछ प्रक्रियाएं टीएम के रूप में काम करती हैं। इरेड्यूसेबल जटिलता की आईडी सिद्धांत अवधारणा हमें बताती है कि ऐसे सेलुलर टीएम सिस्टम विकास द्वारा उत्पन्न नहीं होते हैं। विभिन्न दृष्टिकोणों से अन्य संभावित विचार हो सकते हैं, जो हमें टीएम/सेल के बारे में एक ही आईडी अनुमान की ओर ले जाते हैं। अंततः वे भविष्य में अन्य पदों के विषय होंगे।

मैंने इस ब्लॉग में जो लिखा है वह कोई नई बात नहीं है, क्योंकि यह वास्तविक वैज्ञानिक शोध में निहित है। वास्तव में 1994 में लियोनार्ड एडलमैन द्वारा पहले विचारों और प्रयोगों के बाद से कई जैव-सूचना विज्ञान और डीएनए-कंप्यूटिंग विशेषज्ञों ने स्वीकार किया कि कोशिकाएं टीएम व्यवहार दिखाती हैं और उनमें से कई ने टीएम सेलुलर प्रसंस्करण को मुझसे यहां (डीएनए के बारे में) कहीं अधिक तकनीकी विवरण में वर्णित किया है। -कंप्यूटिंग उदाहरण के लिए यहां, यहां, यहां देखें)।

दुर्भाग्य से इनमें से बहुत कम वैज्ञानिक (या कोई नहीं) अपने शोध के तार्किक परिणाम को स्वीकार करते हैं: चाहे टीएम मौका और आवश्यकता के उत्पाद नहीं हैं, फिर कोशिकाएं भी नहीं हैं। यह इस तरह की असंगति है जिसने मुझे यह सोचने के लिए प्रेरित किया कि इस तरह के निंदनीय सत्य पर किसी तरह जोर दिया जाना चाहिए।


जीवन की कोड स्क्रिप्ट

सिडनी ब्रेनर का तर्क है कि ट्यूरिंग मशीनों और कोशिकाओं में बहुत कुछ समान है।

जैविक अनुसंधान संकट में है, और एलन ट्यूरिंग के काम में हमारा मार्गदर्शन करने के लिए बहुत कुछ है। प्रौद्योगिकी हमें सभी स्तरों पर जीवों का विश्लेषण करने के लिए उपकरण देती है, लेकिन हम डेटा के समुद्र में डूब रहे हैं और कुछ सैद्धांतिक ढांचे के प्यासे हैं जिसके साथ इसे समझना है। हालांकि कई लोग मानते हैं कि 'अधिक बेहतर है', इतिहास हमें बताता है कि 'कम से कम सबसे अच्छा' है। बाकी की भविष्यवाणी करने के लिए हमें अध्ययन की जाने वाली वस्तुओं की प्रकृति पर सिद्धांत और दृढ़ समझ की आवश्यकता होती है।

ट्यूरिंग के तीन पेपर जीव विज्ञान के लिए प्रासंगिक हैं। 1952 में, 'मॉर्फोजेनेसिस के रासायनिक आधार' 1 ने इस परिकल्पना की खोज की कि पौधों और जानवरों में पैटर्न "मॉर्फोजेन्स नामक रासायनिक पदार्थों द्वारा उत्पन्न होते हैं, एक साथ प्रतिक्रिया करते हैं और एक ऊतक के माध्यम से फैलते हैं"। विभेदक समीकरणों का उपयोग करते हुए, ट्यूरिंग ने निर्धारित किया कि कैसे एक सजातीय माध्यम में अस्थिरताएं तरंग पैटर्न उत्पन्न कर सकती हैं जो विकासशील भ्रूण में ऊतक प्रकारों के अलगाव जैसी प्रक्रियाओं के लिए जिम्मेदार हो सकती हैं।

फिर भी ट्यूरिंग के विचार के लिए जैविक समर्थन मामूली रहा है। पूर्व-आदेशित पैटर्न में पाया गया ड्रोसोफिला विकास अस्थिरता सिद्धांत के अनुकूल नहीं है, जो हाल तक केवल रासायनिक प्रणालियों का वर्णन कर सकता था। हालांकि, त्वचा पैटर्निंग को ट्यूरिंग की शर्तों 2 की व्यापक व्याख्या का पालन करने के लिए दिखाया गया है, जहां व्यक्तिगत अणुओं के बजाय सेल-टू-सेल सिग्नलिंग मार्ग पर विचार किया जाता है। 1952 में एलन लॉयड हॉजकिन और एंड्रयू हक्सले 3 द्वारा पोस्ट किए गए आयन चैनल, आणविक जीव विज्ञान द्वारा तुरंत खोजे गए थे।

ट्यूरिंग ने 1950 में जीव विज्ञान से संबंधित एक और पेपर प्रकाशित किया। 'कंप्यूटिंग मशीनरी और इंटेलिजेंस' 4 ने ट्यूरिंग टेस्ट को एक नकली खेल के रूप में पेश किया जिसमें एक बाहरी पूछताछकर्ता एक कंप्यूटिंग मशीन और एक मानव पन्नी के बीच सवालों के जवाब के माध्यम से अंतर करने की कोशिश करता है। लेकिन ट्यूरिंग टेस्ट यह नहीं बताता कि इंसानों से मेल खाने वाली मशीनों में बुद्धि है या नहीं और न ही यह दिमाग का अनुकरण करती है। उसके लिए, हमें एक सिद्धांत की आवश्यकता है कि मस्तिष्क कैसे काम करता है।

जीव विज्ञान के साथ सबसे दिलचस्प संबंध, मेरे विचार में, ट्यूरिंग के सबसे महत्वपूर्ण पेपर में है: 'कम्प्यूटेबल नंबरों पर एक आवेदन के साथ Entscheidungsproblem' 5, 1936 में प्रकाशित हुआ, जब ट्यूरिंग सिर्फ 24 साल के थे।

संगणनीय संख्याओं को उन लोगों के रूप में परिभाषित किया जाता है जिनके दशमलव परिमित साधनों द्वारा परिकलित होते हैं। ट्यूरिंग ने गणना को औपचारिक रूप देने के लिए ट्यूरिंग मशीन के रूप में जाना जाने लगा। सार मशीन एक टेप के साथ प्रदान की जाती है, जो एक समय में एक वर्ग को स्कैन करती है, और यह प्रतीकों को लिख सकती है, मिटा सकती है या छोड़ सकती है। स्कैनर अपनी यांत्रिक स्थिति को बदल सकता है, और यह पहले पढ़े गए प्रतीकों को 'याद' कर सकता है। अनिवार्य रूप से, सिस्टम टेप पर लिखे गए निर्देशों का एक सेट है, जो मशीन का वर्णन करता है। ट्यूरिंग ने एक सार्वभौमिक ट्यूरिंग मशीन को भी परिभाषित किया, जो किसी भी गणना को पूरा कर सकती है जिसके लिए एक निर्देश सेट लिखा जा सकता है - यह डिजिटल कंप्यूटर की उत्पत्ति है।

ट्यूरिंग के विचारों को 1940 के दशक में गणितज्ञ और इंजीनियर जॉन वॉन न्यूमैन ने आगे बढ़ाया, जिन्होंने एक 'कन्स्ट्रक्टर' मशीन की कल्पना की थी जो एक विवरण के अनुसार दूसरे को इकट्ठा करने में सक्षम थी। अपने स्वयं के विवरण के साथ एक सार्वभौमिक निर्माता स्वयं की तरह एक मशीन का निर्माण करेगा। कार्य को पूरा करने के लिए, यूनिवर्सल कंस्ट्रक्टर को इसके विवरण को कॉपी करना होगा और कॉपी को संतान मशीन में डालना होगा। वॉन न्यूमैन ने नोट किया कि यदि नकल करने वाली मशीन ने त्रुटियां की हैं, तो ये 'म्यूटेशन' संतान में अंतर्निहित परिवर्तन प्रदान करेंगे।

ट्यूरिंग और वॉन न्यूमैन की मशीनों का सबसे अच्छा उदाहरण जीव विज्ञान में पाया जा सकता है। ऐसी जटिल प्रणालियाँ और कहीं नहीं हैं, जिनमें प्रत्येक जीव का अपना आंतरिक विवरण होता है। जीव के प्रतीकात्मक प्रतिनिधित्व के रूप में जीन की अवधारणा - एक कोड स्क्रिप्ट - जीवित दुनिया की एक मौलिक विशेषता है और इसे जैविक सिद्धांत के कर्नेल का निर्माण करना चाहिए।

जेम्स वाटसन और फ्रांसिस क्रिक द्वारा डीएनए की डबल-पेचदार संरचना की खोज के एक साल बाद, लेकिन जीव विज्ञान की बाद की क्रांति से पहले, 1954 में ट्यूरिंग की मृत्यु हो गई। आणविक जीव विज्ञान पर न तो उनका और न ही वॉन न्यूमैन का कोई सीधा प्रभाव था, लेकिन उनका काम हमें प्राकृतिक और कृत्रिम दोनों तरह की मशीनों के बारे में अपने विचारों को अनुशासित करने की अनुमति देता है।

ट्यूरिंग ने स्टोर-प्रोग्राम कंप्यूटर का आविष्कार किया, और वॉन न्यूमैन ने दिखाया कि विवरण यूनिवर्सल कंस्ट्रक्टर से अलग है। यह मामूली बात नहीं है। भौतिक विज्ञानी इरविन श्रोडिंगर ने अपनी 1944 की पुस्तक . में कार्यक्रम और निर्माता को भ्रमित किया जिंदगी क्या है?, जिसमें उन्होंने गुणसूत्रों को "वास्तुकार की योजना और एक में बिल्डर के शिल्प" के रूप में देखा। ये गलत है। कोड स्क्रिप्ट में केवल कार्यकारी फ़ंक्शन का विवरण होता है, न कि फ़ंक्शन का।

इस प्रकार, हॉजकिन और हक्सले के समीकरण विद्युत सर्किट के रूप में तंत्रिका आवेग के गुणों का प्रतिनिधित्व करते हैं, लेकिन आवश्यक चैनल और पंप जीन में विनिर्देशों से निर्मित होते हैं। हमारी समस्याएं मशीनरी के कंस्ट्रक्टर हिस्से को समझने में रहती हैं, और यहां सेल एब्स्ट्रैक्शन 6 का सही स्तर है।

जीवविज्ञानी एक जीवित जीव से केवल तीन प्रश्न पूछते हैं: यह कैसे काम करता है? यह कैसे बनाया जाता है? और यह इस तरह कैसे पहुंचा? वे शरीर विज्ञान, भ्रूणविज्ञान और विकास के शास्त्रीय क्षेत्रों में सन्निहित समस्याएं हैं। और सब कुछ के मूल में इन विशेष ट्यूरिंग मशीनों के निर्माण के विवरण वाले टेप हैं।


एक्सेस विकल्प

1 वर्ष के लिए पूर्ण जर्नल एक्सेस प्राप्त करें

सभी मूल्य नेट मूल्य हैं।
वैट बाद में चेकआउट में जोड़ा जाएगा।
चेकआउट के दौरान कर गणना को अंतिम रूप दिया जाएगा।

ReadCube पर सीमित समय या पूर्ण लेख प्राप्त करें।

सभी मूल्य नेट मूल्य हैं।


समय के साथ गणना के लिए कम्प्यूटेशनल राज्य

गणना के सभी मॉडल समान रूप से शक्तिशाली नहीं होते हैं, अर्थात, वे उन गणनाओं की श्रेणी के संदर्भ में समान नहीं हैं जिनका वे संभवतः वर्णन कर सकते हैं। By this metric, combinatorial logic circuits are extremely weak, since the output of a circuit is purely a function of its current inputs (that is, there is no “memory”), and this severely restricts the range of computations that are possible with a single circuit. Clearly, there are models of computation more powerful than combinatorial logic, that is, models which can describe all computations that are possible with combinatorial logic circuits and more. In this regard, two extremely powerful models of computation, the Lambda calculus 54 and the Turing Machine 42 are particularly important. These two models are both equally powerful, but quite different in their formulation—the Lambda calculus is a model of functional computation, while the Turing Machine models stateful computation. Here we focus on stateful computation, as states enable functions that operate over time, such as memory, learning and adaptation.

The output of stateful computations depends not only on the current input, but also on the current state, which encodes information about previous inputs that are no longer present. Models of computation such as finite state machines (FSMs) (shown in Fig. 2) exceed the capabilities of combinatorial logic, and are extremely powerful models of computation—the central processing units of modern digital computers are built from sequential logic circuits, which are implementations of FSMs. Even so, they cannot describe all computations that are available to the Turing Machine model, since they have only a bounded number of states. Turing machines are similar to FSMs, but have an unbounded memory (commonly conceptualized as a tape), which endows them with an unbounded computational state space (number of distinct configurations). Consequently, Turing Machines can compute anything that any real computer can, and in fact, computer science starts from the notion that Turing Machines (TMs) demarcate what is (and is not) computable 42 . From a practical perspective, these considerations of the limits of computability might be of less conceptual value than the strategy that TMs employ to decouple the complexity of the machine from the number of states on which they can operate.

Cells could provide more than logic circuits. Computer science has developed models of computation that are far more powerful than combinatorial logic, such as finite-state machines or the Turing Machine. These models are more powerful in that they allow processing of a wider range of inputs into outputs, and in many more ways, than are admissible by combinatorial logic. Similarly, living systems have evolved a variety of computational processes to allow cells to process information. A simple model, used extensively as the basis for engineering combinatorial logic circuits in cells, is the standard representation of the central dogma (CD) of molecular biology. However, this model does not incorporate core cellular mechanisms such as metabolism, or processes such as evolution, which may provide possibilities for building more powerful, but as yet unknown, models

Modern digital computers, as with any real physical system 55 , lack the unbounded state space required for implementing a Turing Machine. However, their state space is so vast as to make them practically indistinguishable from implementations of Turing Machines (consider that even systems with an extremely modest 1 MB of storage have at least (2^<10^6 ! imes! 8>) states). It is therefore unlikely that cellular computing will outperform silicon purely on the basis of enabling more complex stateful computations. Nevertheless, synthetic biology has already engineered successful in vivo implementations of stateful computations 10,56,57 , and there also exists significant theoretical work linking stateful models of computation to biological implementations 58,59 . This work is undoubtedly of considerable importance for a broad range of synthetic biology applications, and since biological systems naturally engage in stateful computation 60,61,62 , statefulness or “memory” will likely be a key component in future engineered biocomputations of any significant complexity.


Will biologists become computer scientists?

The idea that living systems could be understood and described as information-processing systems has been around even before the first computers were built. From Alan Turing's considerable paper in 1936 to Erwin Schrödinger's work in 1944 and John von Neumann's work in 1948 1 , many scientists pondered about information storage and the possible existence of a logical processor within living cells. The discovery of the double-helical structure of DNA in 1953 provided the material basis for these intuitions as it finally revealed how cells store inheritable information in a “digital” format. The recent success of genome transplantation experiments into recipient host cells 2 —akin to transferring software to another computer—further strengthened the hypothesis that living cells can be regarded as Turing Machines, as was suggested by Sydney Brenner 3 (see Sidebar 1 for a glossary and Sidebar 2 for further readings).

… many scientists pondered about information storage and the possible existence of a logical processor within living cells.

François Jacob and Jacques Monod were among the first biologists to understand gene expression as an algorithm.

In light of these and other experimental results that would support the hypothesis that some parts of living systems could be understood as information-processing machines, the Fourmentin-Guilbert Scientific Foundation invited international scholars from the life sciences, computer sciences and physical sciences (see Sidebar 3) to the I2CELL (from Information to Cells) seminar in February 2018 near Oxford, UK, to discuss and identify new research areas. Over 3 days, they debated on a broad range of subjects from computation, information handling, algorithms, robotics and viruses (of the digital and biological varieties) to explore analogies between cells and computers that could inspire new research, while keeping a critical approach to the benefits of similarities. This article summarizes and analyses the presentations and debates.

Biomolecular computation

A crucial question is what does computation mean in the context of living systems? For a start, it means that cells host processes that manipulate symbolic information according to logical rules. The most obvious example is the genetic networks, which have many attributes associated with computing 4 . In fact, the extent of computations that cells and viruses perform seems to be very large. Eukaryotic cells, for example, make a decision of whether or not to divide by performing a “majority voting”-based computation. A similar process takes place during infection of a bacterium by a phage. The decision between lysis (reproduction of the phage to produce new viral particles at the expense of the host cell) and lysogeny (a Trojan horse-like state whereby the phage hides its genome in the host genome) is taken as an unanimous vote of the viral particles in the infected cell. Although this decision—as many other “decisions” of living systems—seems to be a stochastic event, it could be framed in a broader context, thereby yielding to a better understanding of how living systems make decisions if we could reveal the underlying एल्गोरिदम.

Formalizing cellular algorithms

François Jacob and Jacques Monod were among the first biologists to understand gene expression as an algorithm 5 . NS एलएसी operon they discovered is a genetic system that allows ई कोलाई cells to switch between lactose and glucose as a food source by executing a subroutine that uses “if–then” conditional statements common to rule-based programming languages. Such observations could be formalized more systematically by exploiting concepts from computer science, helping to answer fundamental questions about how living systems sense, process and react to information.

Computer sciences provide elaborate tools and methods to study and formulate algorithms. NS automata model deserves particular attention as living cells can be considered as a material implementation of state machines or as housing such machines that transcribe, translate and replicate the genome (Fig 1). But only a few cellular processes have so far been described as state machines. Stahl and Goheen, for example, use a Turing Machine to model the “algorithmic enzymes” involved in the synthesis of mRNA and proteins 6 . Robert Landick and his colleagues mapped the whole transcription process onto a Turing Machine 7 (see Sidebar 2 for other examples).

Figure 1. Steampunk illustration of a Turing Biomachine by David S. Goodsell (TSRI)

… living cells can be considered as a material implementation of state machines or as housing such machines that transcribe, translate and replicate the genome

During I2CELL, the participants discussed other systems and observations—including, for instance, centrioles that play a crucial role in cell division—that could be analysed so as to classify cellular states and then explore the rules governing transitions between those states. Such approaches place cell biology into a state machine framework and, more generally, demonstrate that living systems could indeed be understood and analysed as housing information-processing devices.

Sidebar 1: Glossary

A description of a method to solve a problem in terms of elementary, precise operations. When expressed in a particular language, the algorithm is called a program. Cellular processes to make macromolecules are algorithmic in the form “begin, do: [if Condition then Action, check Control Points, repeat], end”.

Abstract models of machines to perform computations from an input by moving through a series of intermediate states. When an automaton sees a symbol as input, it changes to another state according to an instruction (given by a transition function). The stored-program computer and the living cell are two concrete realizations of an automaton.

An abstract machine with a virtual head to read and write symbols structured in words (sequences) from an infinite tape, focusing on one symbol at a time. A ribosome translating the information from a messenger RNA into a protein can be described as a Turing Machine, with striking physical similarity.

There is a whole hierarchy of state machines. The simplest one is a Finite State Machine (FSM) or Finite State Automaton (FSA). It has a finite number of states with an initial state, and transitions triggered by conditions (inputs). Apart from the states reflecting its current situation, the FSM has no mechanism for remembering past operations. Going up the hierarchy ladder, more sophisticated state machines are augmented with an increasingly versatile storage facility. The Turing Machine is on top with no restriction on its number of states. The information treated by a FSM resides in its states and its inputs. In the case of a Turing Machine, the information is also stored as symbols on the tape.

James Clerk Maxwell originally conceived his thought experiment as a hypothetical being able to capture information about a system, thus reducing entropy, apparently against the standard laws of thermodynamics. Later on, his demon was “exorcised” when theoretical works suggested that it cannot use the information gained on the system without memorizing it and that the erasure of this information to reset the measurement device comes at an energetic cost, so as to preserve the laws of physics. Today, physicists and chemists try to prove the physical dimension of information by quantifying the relationship between information and energy—as did Einstein by unifying matter and energy—and try to implement concrete information-driven devices.

Genome transplantation

Experimental approach that consists of replacing entirely the genetic program of a bacterial cell by a synthetic new genetic program. The fact that the cells readily express the new chromosome, in the case of Mycoplasma 2 , shows that the genetic program is separated from the cellular machine like in a computer and comes up as another proof of concept of the cell as a Turing Machine. Like in a computer, in which a program does not run if it is not properly recognized by the machine, one cannot expect any genome transplantation to be productive.

The proper functioning of protein synthesis depends on the ability of the ribosome to decode the messenger RNA with high fidelity. When a ribosome incorporates amino acids in a ratchet-like manner, it selects one wrong amino acid in 10,000. It achieves this low error rate thanks to specific proteins that, acting like Maxwell's demon, test (proofread) if the amino acid presented to the ribosome is the correct one.

Information storage, interpretation and measurement

Information storage is a key component of a Turing Machine or state machine. While DNA is a long-term memory to store and transmit information over generations, short-term memories also exist within the cell. The Turing Machine formalism suggests that proteins and RNA may act as a transient memory, together with other epigenetic information that is not coded in genes. The information contained in computer programs is subject to successive interpretations and translations from higher-level abstractions down to hardware instructions. In a living cell, similar computational processes can be observed at different levels of abstraction ranging from phenotype through genetic programs down to the underlying molecular interactions 8 .

The Turing Machine formalism suggests that proteins and RNA may act as transient memory, together with other epigenetic information that is not coded in genes.

Further analogies might be useful to understand information handling in cells. In particular, the existence of a biological counterpart to Maxwell's demon-like mechanisms could help to explain important observations in biology such as asymmetric cell division. Here, most of the damaged and old molecular components remain in the “mother” cell while the “daughter” receives the “younger” proteins and organelles. How does the cell achieve such asymmetry during division? One hypothesis suggests that proteins are filtered by Maxwell's demons that measure the state of encountered components—damaged or aged for instance—memorize this information, produce an action accordingly and reset their memory. Kinetic proofreading, which is an important mechanism to prevent errors during protein synthesis, can be also viewed as a process akin to Maxwell's demon. Such arguments would stress the important role of the concept of information as a measurable quantity.

Sidebar 2: Further reading

For a deeper understanding of how historically analogies between living cells and computers have been made, see videos by Sydney Brenner:

  • Benenson Y (2012) Biomolecular computing systems: principles, progress and potential. Nat Rev Genetics 13: 455–468
  • Navlakha S, Bar-Joseph Z (2011) Algorithms in nature: the convergence of systems biology and computational thinking. Mol Syst Biol 7: 546
  • Cardelli L, Hernansaiz-Ballesteros RD, Dalchau N, Csikasz-Nagy A (2017) Efficient switches in biology and computer science. Plos Comput Biol 13: e1005100
  • Zeng L, Skinner SO, Zong C, Sippy J, Feiss M, Golding I (2010) Decision making at a subcellular level determines the outcome of bacteriophage infection. कक्ष 141: 682–691
  • Serreli V, Lee CF, Kay ER, Leigh DA (2007) A molecular information ratchet. प्रकृति 445: 523–527
  • Lutz E, Ciliberto S (2015) Information: from Maxwell's demon to Landauer's eraser. भौतिकी आज 68: 30
  • Binder P, Danchin A (2011) Life's demons: information and order in biology. What subcellular machines gather and process the information necessary to sustain life? EMBO Reports 12: 495–499
  • Bryant B (2012) Chromatin computation. एक और 7: e35703
  • Lan G, Tu Y (2016) Information processing in bacteria: memory, computation, and statistical physics: a key issues review. Reports on progress in physics. Physical Society 79: 052601
  • Bar-Ziv R, Tlusty T, Libchaber A (2002) Protein-DNA computation by stochastic assembly cascade. प्रोक नेटल एकेड साइंस यू एस ए 99: 11589–11592
  • Eiben AE, Smith, JE (2003) Introduction to evolutionary computing. Berlin: Springer
  • Eiben AE, Smith, JE (2015) From evolutionary computation to the evolution of things. प्रकृति 521: 476–482

Beyond the concepts: how far can we draw an analogy between a living cell and a computer?

The architecture and programming of man-made computers should stimulate new questions for biologists: if the analogy holds, what does the cellular hardware do? How can we dissect biological functions from metabolic pathways to complex behaviours into their essential parts? For historical reasons, molecular biology has relied on a bottom-up approach from gene to protein and to function. Instead, a top-down approach or functional analysis 9 to identify and formulate the master functions of life and their underlying secondary functions, and then the objects associated with them, could provide a broader understanding of the essential processes in cells. Thus, current research on creating a genome coding for a “minimal set of functions” rather than a minimal set of genes could help to identify the still unknown functions of many essential genes.

Most computers run an Operating System (OS) with a reduced set of instructions that provides a common interface between hardware resources and applications. While the genome is a true program in the sense that it contains instructions and data, it is not clear yet whether there is also a cellular OS. Nevertheless, the metaphor could help to identify some of the homeostatic functions within a cell that would be part of a minimal genome.

Another analogy between computers and cells is suggested by genome transplantation experiments by which a recipient host cell's genome is replaced by a synthetic genome assembled exogenously. Beyond the essential compatibility of the transcription and translation machinery to “read” the new genome, it might need additional “boot programs” in order to restart the regulatory and metabolic functions encoded in the new genome and the host cell.

Like living systems, computers age more precisely, transistors, the elementary building blocks of electronic circuits, age. This ageing decreases the switching speed over time and thereby overall performance. Processors and memory circuits are therefore equipped with components that monitor transistor performance and progressively slow down the speed of computing to increase their lifespan. Do similar controls exist in cells that monitor the age of cellular components and adjust the speed of biological processors (RNA polymerases, ribosomes)? It might be valuable, when searching for biological Maxwell's demons, to identify protein networks that measure the intrinsic ageing of proteins—which manifests through chemical alterations—and that slow down the speed of transcription and translation to increase the cell's lifespan or that eventually trigger apoptosis or senescence to discard of or silence an aged cell. If it turns out that biological Maxwell's demons are central for renovating the cellular protein synthesis machinery or to synthesize a young cell, it would allow biologists to revisit ageing theories accordingly.

Finally, robotics is also exploiting concepts from nature and evolution to develop self-evolving non-organic systems with the ability to explore, sense and process information about their environment. Though this work is at early stages, robots should eventually become capable of autonomous evolution to adapt their functions and programming to their environment. Robots are already able to learn, sometimes from scratch, to improve their movement for instance, or to adapt their capabilities in case of degradation. Overall, there is a rich history of evolutionary computation and robotics that borrows ideas and inspiration from biology to design new machinery and software 10 .

Sidebar 3: I2CELL participants and topics

Hugo Aguilaniu, Instituto Serrapilheira, Brasil

David Bikard, Institut Pasteur, France

Holger Breithaupt, EMBO, Germany

Anne Condon, University of British Columbia, Canada (in charge of the daily summaries)

Antoine Danchin, Institute of Cardiometabolism and Nutrition, Hôpital de la Pitié-Salpêtrière, France

Gilles Dowek, Inria/ENS Cachan, France

Agosto Eiben, Vrije Universiteit Amsterdam, The Netherlands

Eric Fourmentin, Fourmentin-Guilbert Scientific Foundation, France (organizer)

John Glass, J. Craig Venter Institute, USA

Ido Golding, Baylor College of Medicine, USA

Philipp Holliger, MRC, Cambridge University, UK

Paul Jardine, University of Minnesota, USA

Hélène Kirchner, Inria, France (organizer)

Damien Larivière, Fourmentin-Guilbert Scientific Foundation, France (organizer)

Carole Lartigue, Inra, France

Albert Libchaber, The Rockefeller University, USA

Jean-Yves Marion, IUF and Lorraine University, France

Wallace Marshall, UCSF, USA (in charge of the daily summaries)

Anthony Maxwell, John Innes Center, UK

Jean-Baptiste Mouret, Inria, France

Vincent Noireaux, University of Minnesota, USA (organizer)

Jordan Pollack, Brandeis University, USA

Olivier Sentieys, Inria/University of Rennes, France

Tsvi Tlusty, UNIST, Korea (in charge of the daily summaries)

Christoph Zechner, Max Planck Institute of Molecular Cell Biology and Genetics, Germany

  • Session 1: Cells as Turing Machines?
  • Session 2: Algorithm-driven cellular processes
  • Session 3: Where Operating System-like functions could be found?
  • Session 4: How far are we from making a self-replicating and self-reproducing machine?
  • Session 5: How to contain virus?

निष्कर्ष

While cells and computers are made of very different materials—carbon versus silicon—both are nonetheless information-processing systems. The living world has for long been a source of inspiration for computer scientists and has led to the development of neural networks, evolutionary algorithms or self-learning systems. Many insights from living systems are still to be explored, for example to decrease the energetic cost of computation, to make artificial systems more autonomous, to design a computer immune system or to allow computers to benefit from viral infection.

Vice versa, there is also a lot to gain for biologists from ideas and concepts in computer science. Synthetic biology in particular is already benefiting in its attempts to create artificial cells designed to perform a particular task. While synthetic biology has a large inventory of available “parts”– metabolic and regulatory genes that can be combined into circuits—and the software program, that is the genome, can be tailored to specifications, it still remains impossible to bootstrap a cell from a set of molecules. Like computers, living cells are synthesized by algorithmic machines based on a construction scheme. Computer sciences could help to identify key characteristics of such processes and therefore allow biologists to better understand how the machinery of the cell evolved.

There is a lot to gain for biologists from ideas and concepts in computer science.

The Fourmentin-Guilbert Scientific Foundation has created the I2CELL Seed Award to emphasize the importance of this interdisciplinary field and to stimulate experimentally relevant ideas that exploit the concept of information in biology (www.i2cell.science).


A mathematical theory proposed by Alan Turing in 1952 can explain the formation of fingers

Like strips and dots in many animals, fingers can be considered as patterns that can be predicted by the Turing model. Credit: Luciano Marcon and Jelena Raspopovic

Alan Turing, the British mathematician (1912-1954), is famous for a number of breakthroughs, which altered the course of the 20th century. In 1936 he published a paper, which laid the foundation of computer science, providing the first formal concept of a computer algorithm. He next played a pivotal role in the Second World War, designing the machines which cracked the German military codes, enabling the Allies to defeat the Nazis in several crucial battles. And in the late 1940's he turned his attention to artificial intelligence and proposed a challenge, now called the Turing test, which is still important to the field today.

His contribution to mathematical biology is less famous, but was no less profound. He published just one paper (1952), but it triggered a whole new field of mathematical enquiry into pattern formation. He discovered that a system with just 2 molecules could, at least in theory, create spotty or stripy patterns if they diffused and chemically interacted in just the right way.

His mathematical equations showed that starting from uniform condition (ie. a homogeneous distribution – no pattern) they could spontaneously self-organise their concentrations into a repetitive spatial pattern. This theory has come to be accepted as an explanation of fairly simple patterns such as zebra stripes and even the ridges on sand dunes, but in embryology it has been resisted for decades as an explanation of how structures such as fingers are formed.

Now a group of researchers from the Multicellular Systems Biology lab at the CRG, led by ICREA Research Professor James Sharpe, has provided the long sought-for data which confirms that the fingers and toes are patterned by a Turing mechanism. "It complements their recent paper (विज्ञान 338:1476, 2012), which provided evidence that Hox genes and FGF signaling modulated a hypothetical Turing system. However, at that point the Turing molecules themselves were still not identified, and so this remained as the critical unsolved piece of the puzzle. The new study completes the picture, by revealing which signaling molecules act as the Turing system" says James Sharpe, co-author of the study.

The approach taken was that of systems biology – combining experimental work with computational modelling. In this way, the two equal-first authors of the paper were able to iterate between the empirical and the theoretical: the lab-work of Jelena Raspopovic providing experimental data for the model, and the computer simulations of Luciano Marcon making predictions to be tested back in the lab.

This is the detailed embryo limb and the network topology of the Bmp-Sox9-Wnt (BSW) model. Credit: Luciano Marcon and Jelena Raspopovic.

By screening for the expression of many different genes, they found that two signalling pathways stood out as having the required activity patterns: BMPs and WNTs. They gradually constructed the minimal possible mathematical model compatible with all the data, and found that the two signalling pathways were linked through a non-diffusible molecule – the transcription factor Sox9. Finally, they were able to make computational predictions about the effects of inhibiting these 2 pathways – either individually, or in combination – which predicted how the pattern of fingers should change. Strikingly, when the same experiments were done on small pieces of limb bud tissue cultured in a petri dish the same alterations in embryonic finger pattern were observed, confirming the computational prediction.

This result answers a long-standing question in the field, but it has consequences that go beyond the development of fingers. It addresses a more general debate about how the millions of cells in our bodies are able to dynamically arrange themselves into the correct 3D structures, for example in our kidneys, hearts and other organs. It challenges the dominance of an important traditional idea called positional information, proposed by Lewis Wolpert which states that cells know what to do because they all receive information about their "coordinates" in space (a bit like longitude and latitude on a world map). Today's publication highlights instead that local self-organising mechanisms may be much more important in organogenesis than previously thought.

Arriving at the correct understanding of multicellular organization is essential if we are to develop effective strategies for regenerative medicine, and one day to possibly engineer replacement tissues for various organs. In the shorter term, these results also explain why polydactyly – the development of extra fingers or toes – is such a common birth defect in humans: Turing systems are mathematically known to have slightly lower precision in regulating the number of "stripes" than alternative models.

At first glance, the question of how an embryo develops seems unrelated to the problems of computing and algorithms with which Turing is more commonly associated. In reality however, they were both expressions of his interest in how complex and clever biological "machines" arise in nature. In a sense, he sought the algorithms by which life builds itself. It is fitting that this study, which has confirmed Turing's 62 year-old theory on embryology, required the development of a serious computer model. It brings together two of his major life achievements into one satisfying result.


Parallel thinking

The computer seems to be the only commodity ever to become exponentially better as it gets cheaper. Its information handling capacity has grown at a rate ten million times faster than that of our nervous systems during the four billion years since life began on Earth. Yet the theory and technology of computing has rested for more than 50 years on the Turing-machine model of computation, which leads to many intractable or undecidable problems. क्या कोई विकल्प हैं? This was the question addressed at a conference in January Footnote 1 , where three new models of computation were discussed: the DNA model, the quantum model and the reversible model.

DNA has a potentially gigantic memory capacity (in reasonable concentrations, a litre of DNA solution can store up to 10 22 bits of information), and biochemical operations are massively parallel. So DNA has a built-in computational power. The familiar double helix of DNA arises by the bonding of two separate polymer chains, composed of the four DNA bases A, G, C and T. These obey the Watson-Crick complementarity rule: A bonds with T and C bonds with G. This restriction means that one DNA chain can pair with another chain only when their sequences of bases are complementary. Thus, fundamental information is available for free: knowing one member of a bond means automatically knowing the other.

The startling thing is that complementarity yields universality, in the Turing sense (A. Salomaa, Turku Univ.). Consider the set of all possible words (sequences) that can be obtained from two given words by shuffling them without changing the order of letters. For instance, shuffling AG and TC we get AGTC, ATCG, TCAG and TAGC. Then collect all shufflings of all pairs of complementary words into the so-called twin-shuffle language. There is a simple way to go from a DNA double strand to a word in the twin-shuffle language and back. Universality follows from the fact that any Turing computation can be performed by using an appropriate finite automaton to filter the (fixed) twin-shuffle language. So DNA computers could in theory perform any operation that digital computers can.

It is a long way from theory to implementation, however. Biochemical operations are slow and prone to errors. The extraction of DNA strands containing a particular sequence is far from certain. Physical constraints, such as volume (performing the computation within a practical volume of DNA), time (some operations can take up to 100 minutes, at present) and energy (operations such as denaturing and annealing require heating or cooling) are difficult to control. But a new cloning readout procedure that overcomes some of these problems was described at the meeting. Using bacteriophage DNA rather than synthesized DNA to carry encoded solutions, operations such as removal, restriction and sorting can be performed by gel electrophoresis, and the result can be obtained in an error-resistant way by picking individual clones and sequencing their DNA (M. Amos, Liverpool Univ.).

Computers, in contrast to Turing machines, are physical devices: whatever they can or cannot do is determined by the laws of physics. Quantum effects, such as interference and entanglement, are especially important, because in the race for miniaturization, computers will inevitably use circuits approaching the level of atoms and photons. There are also certain algorithms that, in principle, can be solved by a quantum computer much more quickly than by a conventional one.

Not all quantum effects may be needed. Nonlinearity (to support quantum logic and ensure universality) and coherence (for the manipulation of coherent quantum superpositions) are necessary and, in principle, sufficient conditions for computation. Conventional devices under investigation for carrying out these operations include ion traps, high-finesse cavities for manipulating light and atoms using quantum electrodynamics, and molecular systems designed to compute using nuclear magnetic resonance. These last store quantum information in the states of quantum systems such as photons, atoms or nuclei, and realize quantum logic by semiclassical potentials such as microwave or laser fields. Unconventional ideas for quantum computation include fermionic quantum computers, bosonic computers (which use a Bose-Einstein condensate of photons, phonons or atoms), and architectures relying on anyons (whose nonlocal topological nature makes them intrinsically error-correcting and virtually immune to noise and interference).

The third strand of the meeting was reversibility. An operation is reversible if it can be undone it is simply determinism looking backwards in time. Conventional computers are irreversible, and constantly discard information about their states. This limits their efficiency, as it increases the energy required to perform computations and involves the dissipation of heat. But since the laws of physics are reversible at a microscopic level (a given microstate can only be reached by a single path), it follows that irreversible operations and the accompanying production of entropy are in principle not necessary. In practice, reversible computations are likely to dissipate far less energy — but avoiding all entropy production may hurt other measures of performance, such as speed.

The world's first fully reversible universal computer was presented at the meeting (T. Knight, MIT). Working with a parallel architecture (Fig. 1), the machine can perform any computation using arbitrarily little energy per operation (ignoring leakage and powersupply issues). Even with actual leakage factors taken into consideration, the machine operates with less than one-thousandth of the energy per operation of a conventional circuit implementing the same computational model.

It is based on the billiard-ball cellular automaton, in which logic values are modelled by the presence or absence of ‘billiard balls’ moving along paths in a grid. This scheme has now been realized, using a split-level charge-recovery logic circuit.

Although all these techniques are becoming more tractable, there is still no sign of any way to break the Turing barrier. Which computational route holds the most promise for the future? In spite of profound differences — in philosophy, methodology, resources — all face a number of similar problems. How should we efficiently encode the data? What architecture should we choose? How is the architecture initially programmed? Can the architecture reconfigure itself? How should we modify the presently known algorithms to fit the new architecture? How should we efficiently read the output?

So it is a matter of some debate whether any of these models will ever leave the lab. But they have helped draw together the disciplines of computing, mathematics, physics, engineering and biology, and already produced new insight. For instance, new ideas have arisen about the evolution of genes and DNA sequences (that life may be seen as a series of complex computations) and in the field of quantum communication and solutions have been obtained to old problems (for example, the negative solution to Maxwell's demon problem (S. Lloyd, MIT): a perfectly efficient engine is impossible not only for mortals, but even in principle). The real issue might not be the final destination, but the journey, and the understanding of natural phenomena that will necessarily occur along the way.


Junk DNA might be really, really useful for biocomputing

IMAGE: Simple repeats form novel DNA structures that change how DNA is read out. They are called flipons and act as ON-OFF switches for compiling genetic programs. The messages produced carry.

Dr. Herbert asks what if our genome was far smarter than everyone previously believed? What if in the many DNA repeat elements lay the foundation for building a novel type of biocomputer? This approach would enable calculations performed with self-renewing wetware rather than stone-cold hardware, opening the door to logic circuits based on DNA that flips from one state to another, analogous to the way silicon switches "on" and "off".

How might this kind of DNA computer work? Simple repeats are called that because the DNA sequence repeats itself over and over again a number of times. The repeats actually are great for building DNA structures with useful properties. Instead of the everyday B-DNA described by Watson and Crick, repeats of certain DNA sequences can morph into some rather exotic higher-energy 3D structures. They can form left-handed duplexes, three-stranded triplexes, and four-stranded quadruplexes. The different DNA structures change how information is read out from DNA to make RNA.

Those repeat sequences that are able to switch from one DNA structure to another are called flipons. Collectively, Dr. Herbert refer to these flipons and their associated functionality as fliponware. Fliponware sets the stage for a cell to make the right wetware tools and run the right genetic program to get the job at hand done. It allows assembly of gene pieces into different RNA-based programs for a cell to overcome challenges from its environment.

Dr. Herbert provides examples of how flipons can be used to create genetic programs, describing ways they can be wired into the logic gates that computers need to function. The flipon logic gates can perform 'AND' or 'NOT' operations. Many can be combined to perform the Boolean operations essential to a universal computer as first described by Turing. Their use in the genome for logical operations resembles how Turing machines work, but instead of a Turing tape, the cell uses RNA to record the results. The series of processing steps decides whether the RNA message is stable or not and the genetic program to execute.

Many of the novel RNA assemblies are trashed without ever being used--they may not be needed or their assembly is defective (equivalent to a FALSE result from a Turing machine). Those messages that persist become the codonware of the cell (logically the same as a TRUE result from a Turing machine). The codonware that results then defines the cell's biology by the wetware they direct the production of..

This form of computation differs from previously described DNA computers built without flipons. These other devices depend on whether or not pairs of DNA sequences match each other. If they do, the matches enable the next calculation step. Flipon computers differ in many ways from those using DNA matching. First, some flipons switch very fast (in milliseconds) because all they need to do is change from one 3D structure to another without the need to search for a matching DNA to pair with. Turning a flipon ON or OFF is possible in many different ways. For example, just stretching the DNA can cause flipons to morph, or they can flip due to a change in temperature or variations in salt concentration.

The combination of fliponware, wetware and codonware is analogous to program code, machine language and hardware in a silicon computer. Each of these bioware sets has memory to enable learning. They use error correction to prevent bad outcomes. While flipons are made with simple sequences, codonware is made from complex sequence mixes. The information provides the cell very detailed information on the wetware to make. In simple terms, fliponware instructs which tools to use for a particular job, codonware tells how to make the tools, and wetware does the job.

Dr. Herbert adds, "I expect that soon there will be many exciting and beneficial applications for fliponware. Simple sequences are not your grandparent's junk--instead they are like the rules of thumb that simplify life, acquired over many years of evolution."

Fliponware has several immediate applications:

1. Therapeutic applications (target drugs to flipon states that enable cancers or inflammatory diseases)
2. Biosensors (to detect environmental changes)
3. Persistent DNA memory (exploiting the extreme stability of quadruplexes after they form)
4. Cellular switches (change of output in response to a change of input)
5. Novel DNA nano-architectures (the 3D structure formed depends on flipon state)


वह वीडियो देखें: कय आपक अधकश डएनए जक ह? (अक्टूबर 2022).