کد QR مطلبدریافت لینک صفحه با کد QR

مغز چگونه صداها را از یکدیگر تفکیک می‌کند؟

ایسنا , 30 مهر 1398 ساعت 16:13

گروه علمی: پژوهشگران "موسسه زوکرمن دانشگاه کلمبیا" (The Zuckerman Institute at Columbia University) در پروژه‌ای با حضور "نیما مسگرانی" پژوهشگر ایرانی اخیرا اظهار کرده‌اند، مغز ما توانایی چشمگیری در شناسایی یک صدا از میان چند صدا دارد.


پژوهشگران دانشگاه کلمبیا با کمک نیما مسگرانی پژوهشگر ایرانی اخیرا دریافته‌اند مغز این قابلیت را دارد که یک صدا را از دیگر صداها تفکیک کند. اکتشاف پژوهشگران به حل یک سؤال علمی دیرینه کمک می‌کند که چگونه مرکز گوش دادن به مغز می‌تواند یک صدا را از صدای دیگر رمزگشایی و تفکیک کند و کاری کند که یک صدای خاص تقویت شده و شنیده شود. یافته‌های این مطالعه می‌تواند به توسعه فناوری‌های کمک به شنوایی و رابط‌های مغز و رایانه که بیشتر به مغز شباهت دارند، کمک کند.دکتر"نیما مسگرانی"(Nima Mesgarani) استاد مهندسی برق دانشگاه کلمبیا و نویسنده ارشد این مطالعه گفت: این مطالعه درک ما را از ساختار مغز افزایش می‌دهد و به ما در توسعه فن‌آوری گفتاری و شنوایی کمک می‌کند."قشر شنوایی اولیه"(auditory cortex) قطب شنوایی مغز است.گوش داخلی به این ناحیه مغز سیگنال‌های الکتریکی ارسال می‌کند که این موضوع نشان دهنده جهشی از امواج صوتی از دنیای خارجی است. قشر شنوایی اولیه پس از آن باید صداهای معنی دار را از دیگر صداها در شلوغی شناسایی کند.

قشر شنوایی اولیه که بر روی لوب گیجگاهی و در کنار هر یک از نیم‌کره‌های مغز قرار دارد، در تحلیل کردن پیام‌های شنیداری پیچیده به ویژه در زمانبندی صدا مانند پیشی و پسی در اصوات گفتار انسان نقش دارد. اطلاعات وارد شده به هر دو گوش، در قشرهای شنوایی، روی هر دو طرف قشر کدگذاری می‌شود.دکتر مسگرانی در ادامه افزود: بررسی چگونگی عملکرد قشر شنوایی در تفکیک صداهای مختلف، مانند تلاش برای کشف آنچه در یک دریاچه بزرگ رخ می‌دهد است.مقاله امروز براساس تحقیقات تیم سال ۲۰۱۲ نشان می‌دهد که مغز انسان در مورد صداهایی که می‌شنود انتخابی عمل می‌کند. این مطالعه نشان داد وقتی شخصی به فردی که در حال صحبت است، گوش می‌دهد امواج مغزی آنها تغییر می‌کند تا ویژگی‌های صدای گوینده را شناسایی کند و صداهای دیگر را متوقف کند. محققان طی این مطالعه قصد داشتند دریابند چطور در آناتومی قشر شنوایی اولیه این اتفاق رخ می‌دهد.دکتر "جیمز او سولیوان"(James O'Sullivan) یکی دیگر از پژوهشگران این مطالعه گفت: ما از مدتها قبل می‌دانستیم که مناطقی از قشر شنوایی اولیه در یک سلسله مراتب مرتب می‌شوند و رمزگشایی به طور فزاینده‌ای در هر مرحله اتفاق می‌افتد، اما ما متوجه نشده بودیم که چگونه یک صدای خاص در این مسیر پردازش می‌شود. برای درک این روند، ما نیاز به ثبت فعالیت عصبی از مغز به طور مستقیم داشتیم.

محققان طی این مطالعه دو بخش قشر شنوایی اولیه به نام‌هایHeschl's gyrus)HG) و Superior temporal gyrus)STG) را مورد بررسی قرار دادند. آنها دریافتند اطلاعات از گوش ابتدا به HG می‌رسد، از آن می‌گذرد و بعداً به STG می‌رسد.طی این مطالعه آنها صحبت‌های چند فرد را که در حال شنیدن صحبت‌های ضبط شده افراد بودند مورد بررسی قرار دادند. مسگرانی و او سولیوان امواج مغزی آنها را از طریق الکترودهای کاشته شده در مناطق HG یا STG افراد نظارت کردند.الکترودها پژوهشگران را قادر ساختند تا تمایز واضحی را در بین نقش‌های دو ناحیه مغز در تفسیر صداها مشاهده کنند. داده‌ها نشان داد که HG نمایانگر غنی و چند بعدی از مخلوط صدا را ایجاد می‌کند، در نتیجه هر صدا به دلیل داشتن فرکانس مختلف از دیگری جدا می‌شود. پژوهشگران با بررسی داده‌های جمع آوری شده از STG متوجه موارد جدید شدند.

دکتر او سولیوان گفت: ما دریافتیم که می‌توان صدای یک بلندگو یا دیگری را با وزنی صحیح سیگنال خروجی از HG تقویت کرد. براساس صداهای ضبط شده این احتمال وجود دارد که منطقه STG آن تنظیم وزن را انجام دهد. ما دریافتیم تقسیم واضح و مشخصی از وظایف بین این دو حوزه قشر شنوایی وجود دارد به طوری که HG نماینده است، در حالی که STG انتخاب می‌کند. این اتفاقات در حدود ۱۵۰ میلی ثانیه رخ می‌دهد که برای شنونده فوری به نظر می‌رسد. از اطلاعات این مطالعه می‌توان به عنوان پایه‌ای برای توسعه الگوریتم هایی که این فرایند بیولوژیکی را به صورت مصنوعی همانند سمعک‌ها تکرار می‌کنند، استفاده شود.مسگرانی در انتها افزود: هدف نهایی ما درک بهتر این است که چگونه مغز ما را قادر می‌سازد تا آنقدر خوب بشنویم و همچنین فناوری‌هایی را ایجاد کنیم که به مردم کمک کند.در اوایل سال جاری، دکتر مسگرانی و تیم وی اعلام کردند که موفق به توسعه یک سیستم هوش مصنوعی پیشرفته شده‌اند که قادر به تبدیل سیگنال‌های مغز به گفتار است.مهندسان مغز و اعصاب مدت‌ها بود در فکر توسعه چنین دستگاهی بودند و برای آن تلاش می‌کردند. آنها در فکر توسعه سیستمی بودند که توسط آن بتوانند سیگنال‌های تولید شده توسط مغز را به کلمات و تصاویر تبدیل کنند. در ابتدا این ایده یک ایده علمی تخیلی محسوب می‌شد اما اکنون با تلاش پژهشگران این رؤیا تحقق یافت.

در این مطالعه یک تیم از مهندسان مغز و اعصاب آمریکایی به سرپرستی پژوهشگر ایرانی، یک الگوریتم رایانه‌ای را توسعه دادند که این الگوریتم می‌تواند سیگنال‌های ضبط شده از قشر شنوایی انسان را رمزگشایی کند و آنها را به گفتار قابل فهم تبدیل کند.در این مطالعه پوهشگران داده‌های پنج بیمار را در حالی که آنها تحت عمل جراحی مغز و اعصاب برای صرع قرار گرفته بودند، جمع آوری نمودند.الکترودهای مختلفی درون مغز این بیماران ایمپلنت شده بود و این دانشمندان را قادر می‌ساخت تا در حالیکه بیماران به داستان‌های کوتاه که توسط چهار فرد مختلف گفته می‌شد، گوش می‌دادند، داده‌های الکتروکورتیکوگرافی جامعی را ثبت کند.آنها سپس به جملاتی که توسط افراد مختلف گفته می‌شدند، گوش دادند و در همان زمان نیز الگوهای فعالیت مغز آنها را اندازه گرفتند.مسگرانی طی آن مطالعه گفت: ما متوجه شدیم که افراد می‌توانند صداها را در حدود ۷۵ درصد از موارد، فهمیده و درک کنند. این "دستگاه تبدیل سخن به امواج و بالعکس"(vocoder) حساس و شبکه‌های عصبی قدرتمند نشان دهنده صدایی بود که بیماران در ابتدا با دقت شگفت‌آور گوش دادند.یافته‌های این مطالعه در مجله "Neuron" منتشر شد.


کد مطلب: 190605

آدرس مطلب :
https://www.baharnews.ir/news/190605/مغز-چگونه-صداها-یکدیگر-تفکیک-می-کند

بهار نیوز
  https://www.baharnews.ir