
काठमाडौं, मंसिर २४ । मानव मस्तिष्कले बोलेको भाषा बुझ्ने तरिका उन्नत कृत्रिम बुद्धिमत्ता (एआई) भाषा मोडेलहरूको तहगत संरचनासँग आश्चर्यजनक रूपमा मिल्दोजुल्दो रहेको नयाँ अध्ययनले खुलासा गरेको छ।
हिब्रु विश्वविद्यालयका डा. एरियल गोल्डस्टिनको नेतृत्वमा, गुगल रिसर्चका डा. मारियानो स्केन, प्रिन्सटन विश्वविद्यालयका प्रा. उरी हासन र एरिक ह्यामसँगको सहकार्यमा गरिएको अनुसन्धान नेचर कम्यूनीकेसनमा प्रकाशित भएको हो।
अनुसन्धानमा सहभागीहरूले सुनेको कथाबाट संकलित इलेक्ट्रोकोर्टिकोग्राफी डेटाले देखाएअनुसार गहिरा एआई तहहरू मानव मस्तिष्कका भाषा क्षेत्रहरूमा ढिलो प्रतिक्रिया दिने तरिकासँग मेल खान्छन्। विशेषगरी मस्तष्क अगाडी भागको देब्रे तिररहेको
‘ब्रोका’को क्षेत्रमा गहिरा एआई तहसँग सम्बन्धित प्रतिक्रिया ढिलो समयमा देखिएको छ।
अध्ययनले मानिसले बोलेको शब्द सुन्दा मस्तिष्कले त्यसलाई क्रमिक न्युरल गणनाबाट रूपान्तरण गर्ने निष्कर्ष निकालेको छ। त्यसका साथै प्रारम्भिक एआई तहहरूले शब्दका साधारण विशेषताहरू ट्र्याक गर्छन् भने गहिरा तहहरूले सन्दर्भ, स्वर र अर्थलाई एकीकृत गर्छन्। मानव मस्तिष्कको गतिविधि पनि यस्तै प्रगतिशील ढाँचामा अघि बढ्ने अध्ययनमा उल्लेख छ ।
डा. गोल्डस्टिनले भने, “हामीलाई सबैभन्दा आश्चर्यजनक कुरा यो लाग्यो कि मस्तिष्कले अर्थ निर्माण गर्ने समयक्रम एआई मोडेलभित्र हुने रूपान्तरणसँग यति नजिकसँग मेल खान्छ।”
नयाँ मानक
अनुसन्धानकर्ताका अनुसार एआई केवल पाठ उत्पादन गर्ने उपकरण मात्र होइन, मानव मस्तिष्कले अर्थ कसरी प्रशोधन गर्छ भन्ने बुझ्न नयाँ दृष्टिकोण पनि हो। दशकौँसम्म वैज्ञानिकहरूले भाषा बुझाइलाई प्रतीकात्मक नियम र कठोर भाषिक पदानुक्रममा आधारित मान्दै आएका थिए। यो अध्ययनले त्यो दृष्टिकोणलाई चुनौती दिएको छ।
अनुसन्धान टोलीले न्युरल रेकर्डिङ र भाषिक विशेषताहरूको पूर्ण डेटासेट सार्वजनिक गरेको छ। यसले विश्वभरका वैज्ञानिकलाई प्राकृतिक भाषालाई मस्तिष्कले कसरी बुझ्छ भन्ने प्रतिस्पर्धी सिद्धान्तहरू परीक्षण गर्न सक्षम बनाउने जनाएको छ।
सन्दर्भ शब्द:
इलेक्ट्रोकोर्टिकोग्राफी (Electrocorticography (ECoG): एक आक्रामक स्नायु-विज्ञान प्रविधि हो, जसले मस्तिष्कको सतह (कर्टेक्स) मा प्रत्यक्ष रूपमा इलेक्ट्रोडहरू राखी विद्युत गतिविधि रेकर्ड गर्छ। यसले वैज्ञानिकहरूलाई मस्तिष्कको वास्तविक-समयको गतिविधि बुझ्न मद्दत गर्छ।


Leave a Reply