loading...

azaval

بازدید : 409
چهارشنبه 14 خرداد 1399 زمان : 20:17

آیا هوش مصنوعی (AI) می تواند در درک چگونگی درک مغز از زبان به ما کمک کند؟ آیا علم عصب شناسی می تواند به ما کمک کند درک کند که چرا هوش مصنوعی و شبکه های عصبی در پیش بینی درک انسان مؤثر هستند؟


تحقیقات الكساندر هوت و شیلی جین از دانشگاه تگزاس در آستین (UT آستین) نشان می دهد كه هر دو ممكن است.

در مقاله ای که در کنفرانس 2018 درباره سیستم های پردازش اطلاعات عصبی (Neurips) ارائه شده است ، محققان نتایج آزمایشاتی را که از شبکه های عصبی مصنوعی استفاده کرده اند برای پیش بینی با دقت بیشتر از گذشته ، چگونگی پاسخ مناطق مختلف مغز به کلمات خاص توصیف می کنند.

هوت ، استادیار علوم اعصاب و علوم رایانه در UT Austin ، گفت: "وقتی کلمات به ذهن ما می رسد ، ما ایده هایی را که کسی به ما می گوید ، شکل می دهیم. "به نظر می رسد که باید سیستم هایی برای آن وجود داشته باشد ، اما عملاً ، این فقط به این صورت نیست که زبان کار کند. مانند هر چیز دیگری در زیست شناسی ، کاهش دادن مجموعه ساده ای از معادلات بسیار سخت است."

در این کار نوعی از شبکه عصبی مکرر به نام حافظه کوتاه مدت طولانی (LSTM) استفاده شده است که در محاسبات آن ، روابط هر کلمه با آنچه قبل از آن برای حفظ بهتر زمینه وجود دارد را شامل می شود.

جین ، دکتری گفت: "اگر یک کلمه دارای معانی متعدد باشد ، بسته به آنچه در گذشته گفته شد ، معنی آن کلمه را استنباط می کنید." دانشجوی آزمایشگاه هوت در UT Austin. فرضیه ما این است که این امر منجر به پیش بینی بهتر فعالیت مغز خواهد شد زیرا مغز به زمینه اهمیت می دهد. "

به نظر می رسد واضح است ، اما برای چندین دهه آزمایش های علوم اعصاب پاسخ مغز به کلمات فردی را بدون احساس ارتباط آنها به زنجیره کلمات یا جملات در نظر می گرفت. (هاوت اهمیت انجام "علوم اعصاب در دنیای واقعی" را در مقاله ای در مارس 2019 در مجله علوم شناختی علوم شناختی توضیح می دهد .)

محققان در کار خود آزمایشات لازم را انجام داده اند تا آزمایش کنند و در نهایت پیش بینی کنند که چگونه مناطق مختلف در مغز هنگام گوش دادن به داستانها (بطور خاص ساعت رادیویی شبانه) پاسخ می دهند. آنها از داده های جمع آوری شده از دستگاه های fMRI (تصویربرداری رزونانس مغناطیسی عملکردی) استفاده کردند که تغییرات سطح اکسیژن رسانی خون در مغز را براساس میزان فعالیت گروههای عصبی فعال می کند. این به عنوان خبرنگار جایی که مفاهیم زبانی در مغز "نمایش داده می شوند" خدمت می کند.



آنها با استفاده از ابر رایانه های قدرتمند در مرکز محاسبات پیشرفته تگزاس (TACC) ، آنها یک الگوی زبان را با استفاده از روش LSTM آموزش دادند ، بنابراین می تواند به طور مؤثر پیش بینی کند چه کلمه ای در آینده خواهد آمد - وظیفه ای که مشابه جستجوهای خودکار Google است ، که ذهن انسان بخصوص آن را پذیرفته است. در

هوت گفت: "در تلاش برای پیش بینی کلمه بعدی ، باید این مطالب دیگر را بطور ضمنی یاد بگیریم که زبان چگونه کار می کند." ""

بر اساس مدل زبان و داده های fMRI ، آنها سیستمی را آموزش داده اند که می تواند پیش بینی کند که چگونه مغز هنگام اولین بار شنیدن هر کلمه در یک داستان جدید پاسخ می دهد.

تلاش های گذشته نشان داده بود که می توان پاسخ های زبانی را در مغز بصورت مؤثر بومی سازی کرد. با این حال ، تحقیقات جدید نشان می دهد که اضافه کردن عنصر زمینه ای - در این مورد تا 20 کلمه پیشین - پیش بینی های فعالیت مغز را به میزان قابل توجهی بهبود می بخشد. آنها دریافتند که پیش بینی های آنها حتی وقتی از کمترین مقدار زمینه استفاده می شود ، بهبود می یابد. هرچه زمینه ارائه بیشتر باشد ، دقت پیش بینی های آنها بهتر خواهد بود.

جین گفت: "تجزیه و تحلیل ما نشان داد كه اگر LSTM كلمات بیشتری را در خود جای دهد ، در پیش بینی كلمه بعدی بهتر می شویم."

تحقیقات بیشتر انجام شد. این کاوش نشان داد که قسمت هایی از مغز نسبت به میزان زمینه حساس تر هستند. به عنوان مثال ، آنها دریافتند که مفاهیمی که به نظر می رسد در قشر شنوایی بومی سازی شده اند ، وابستگی کمتری به متن دارند.

مدل رمزگذاری متن متنی با محرکهای روایی. هر کلمه در داستان ابتدا در یک فضای تعبیه 985 بعدی پیش بینی می شود. توالی نمایش کلمات سپس به یک شبکه LSTM که به عنوان یک مدل زبان از قبل آموزش داده شده تغذیه می شود. اعتبار: آزمایشگاه هاوت ، UT آستین
هاوت توضیح داد: "اگر كلمه سگ را می شنوید ، این منطقه اهمیتی نمی دهد كه 10 كلمه قبل از آن چه بوده است ، فقط به صدای كلمه سگ پاسخ می دهند."

از طرف دیگر ، مناطقی از مغز که با تفکر سطح بالاتر سر و کار دارند ، وقتی زمینه های بیشتری را شامل می شد ، آسان تر می شدند. این پشتیبانی از تئوری های درک ذهن و زبان.

هاوت گفت: "یک مکاتبات بسیار خوب بین سلسله مراتب شبکه مصنوعی و سلسله مراتب مغز وجود داشت ، که جالب دیدیم."

پردازش زبان طبیعی یا NLP در سالهای اخیر گامهای بزرگی برداشته است. اما وقتی پاسخ به سؤالات ، گفتگوهای طبیعی یا تحلیل احساسات در متون نوشتاری می آید ، NLP هنوز راه طولانی دارد. محققان معتقدند که مدل زبانی توسعه یافته LSTM می تواند در این مناطق کمک کند.

LSTM (و به طور کلی شبکه های عصبی ) با اختصاص مقادیر در فضای بسیار بعدی به اجزای جداگانه (در اینجا ، کلمات) کار می کند تا هر مؤلفه ای بتواند با هزاران روابط متفاوت خود با بسیاری موارد دیگر تعریف کند.

محققان مدل این زبان را با تغذیه ده ها میلیون کلمه از پست های Reddit آموزش دادند. سپس سیستم آنها پیش بینی می کند که چگونه هزاران وکسل (پیکسل های سه بعدی) در مغز شش موضوع به مجموعه دوم داستان پاسخ می دهند که قبلاً نه مدل و نه افراد شنیده بودند. از آنجا که آنها به اثرات طول بافت و تأثیر لایه های انفرادی در شبکه عصبی علاقه مند بودند ، در اصل 60 عامل مختلف (20 طول حفظ بافت و سه بعد از لایه های مختلف) را برای هر موضوع آزمایش کردند.

همه اینها منجر به مشکلات محاسباتی در مقیاس عظیم می شود و نیاز به مقادیر عظیمی از قدرت محاسباتی ، حافظه ، ذخیره سازی و بازیابی داده ها دارد. منابع TACC به خوبی با این مشکل سازگار بودند. محققان برای حفظ و توزیع داده ها از ابر رایانه ماوریک استفاده کردند که شامل هم GPU و هم CPU است و Corral که یک منبع ذخیره و مدیریت داده است. آنها با موازی کردن مشکل در بسیاری از پردازنده ها ، آنها توانستند آزمایش محاسباتی را در هفته ها و نه سالها اجرا کنند.

هاوت گفت: "برای توسعه موثر این مدل ها ، به داده های آموزشی زیادی نیاز دارید." "این بدان معنی است که شما باید هر بار که بخواهید وزنه ها را به روز کنید ، از کل مجموعه داده خود عبور کنید. و اگر از منابع موازی مانند منابع TACC استفاده نکنید ، ذاتاً بسیار کند است."

اگر به نظر پیچیده است ، خوب است.

این امر باعث می شود تا هاوت و جین یک نسخه روان تر از سیستم را در نظر بگیرند ، جایی که به جای ایجاد یک مدل پیش بینی زبان و سپس استفاده از آن در مغز ، آنها مدلی را توسعه می دهند که مستقیماً پاسخ مغز را پیش بینی می کند. آنها این را یک سیستم پایان پذیر می نامند و جایی است که هاوت و جین امیدوارند که در تحقیقات آینده خود شرکت کنند. چنین مدلی عملکرد خود را مستقیماً در پاسخهای مغزی بهبود می بخشد. یک پیش بینی اشتباه از فعالیت مغز می تواند بازخورد خود را در این مدل و پیشرفت های مختلف ایجاد کند.

هاوت گفت: "اگر این کار کند ، ممکن است که این شبکه بتواند یادگیری خواندن متن یا زبان ورودی را به طور مشابه با عملکرد مغز ما بیاموزد." "Google Translate را تصور کنید ، به جای اینکه فقط یک مجموعه قوانین یاد بگیرید ، آنچه را که می گویید را درک می کند."

با وجود چنین سیستمی ، هاوت معتقد است تنها زمانی زمان بر است که یک سیستم ذهن خوانی که بتواند فعالیت مغز را به زبان ترجمه کند امکان پذیر است. در این میان ، آنها از آزمایشات خود به دانش علوم اعصاب و هوش مصنوعی دست می یابند.

جین گفت: "مغز یک ماشین حسابگر بسیار مؤثر است و هدف از هوش مصنوعی ساخت ماشینهایی است که در تمام کارهایی که یک مغز می تواند انجام دهد واقعاً خوب است." "اما ، ما چیزهای زیادی در مورد مغز نمی فهمیم. بنابراین ، ما سعی می کنیم از هوش مصنوعی استفاده کنیم تا ابتدا مغز را چگونه کار کند ، و سپس ، بر اساس بینش هایی که از طریق این روش بازجویی به دست می آوریم ، و از طریق علوم عصبی نظری ، ما از آن نتایج برای توسعه هوش مصنوعی بهتر استفاده می کنیم.

"ایده این است که سیستم های شناختی ، اعم از بیولوژیکی و مصنوعی را بشناسیم و از آنها بطور همزمان برای درک و ساخت ماشینهای بهتر استفاده کنیم."

https://tinyurl.com/y772hq8t

آیا هوش مصنوعی (AI) می تواند در درک چگونگی درک مغز از زبان به ما کمک کند؟ آیا علم عصب شناسی می تواند به ما کمک کند درک کند که چرا هوش مصنوعی و شبکه های عصبی در پیش بینی درک انسان مؤثر هستند؟


تحقیقات الكساندر هوت و شیلی جین از دانشگاه تگزاس در آستین (UT آستین) نشان می دهد كه هر دو ممكن است.

در مقاله ای که در کنفرانس 2018 درباره سیستم های پردازش اطلاعات عصبی (Neurips) ارائه شده است ، محققان نتایج آزمایشاتی را که از شبکه های عصبی مصنوعی استفاده کرده اند برای پیش بینی با دقت بیشتر از گذشته ، چگونگی پاسخ مناطق مختلف مغز به کلمات خاص توصیف می کنند.

هوت ، استادیار علوم اعصاب و علوم رایانه در UT Austin ، گفت: "وقتی کلمات به ذهن ما می رسد ، ما ایده هایی را که کسی به ما می گوید ، شکل می دهیم. "به نظر می رسد که باید سیستم هایی برای آن وجود داشته باشد ، اما عملاً ، این فقط به این صورت نیست که زبان کار کند. مانند هر چیز دیگری در زیست شناسی ، کاهش دادن مجموعه ساده ای از معادلات بسیار سخت است."

در این کار نوعی از شبکه عصبی مکرر به نام حافظه کوتاه مدت طولانی (LSTM) استفاده شده است که در محاسبات آن ، روابط هر کلمه با آنچه قبل از آن برای حفظ بهتر زمینه وجود دارد را شامل می شود.

جین ، دکتری گفت: "اگر یک کلمه دارای معانی متعدد باشد ، بسته به آنچه در گذشته گفته شد ، معنی آن کلمه را استنباط می کنید." دانشجوی آزمایشگاه هوت در UT Austin. فرضیه ما این است که این امر منجر به پیش بینی بهتر فعالیت مغز خواهد شد زیرا مغز به زمینه اهمیت می دهد. "

به نظر می رسد واضح است ، اما برای چندین دهه آزمایش های علوم اعصاب پاسخ مغز به کلمات فردی را بدون احساس ارتباط آنها به زنجیره کلمات یا جملات در نظر می گرفت. (هاوت اهمیت انجام "علوم اعصاب در دنیای واقعی" را در مقاله ای در مارس 2019 در مجله علوم شناختی علوم شناختی توضیح می دهد .)

محققان در کار خود آزمایشات لازم را انجام داده اند تا آزمایش کنند و در نهایت پیش بینی کنند که چگونه مناطق مختلف در مغز هنگام گوش دادن به داستانها (بطور خاص ساعت رادیویی شبانه) پاسخ می دهند. آنها از داده های جمع آوری شده از دستگاه های fMRI (تصویربرداری رزونانس مغناطیسی عملکردی) استفاده کردند که تغییرات سطح اکسیژن رسانی خون در مغز را براساس میزان فعالیت گروههای عصبی فعال می کند. این به عنوان خبرنگار جایی که مفاهیم زبانی در مغز "نمایش داده می شوند" خدمت می کند.



آنها با استفاده از ابر رایانه های قدرتمند در مرکز محاسبات پیشرفته تگزاس (TACC) ، آنها یک الگوی زبان را با استفاده از روش LSTM آموزش دادند ، بنابراین می تواند به طور مؤثر پیش بینی کند چه کلمه ای در آینده خواهد آمد - وظیفه ای که مشابه جستجوهای خودکار Google است ، که ذهن انسان بخصوص آن را پذیرفته است. در

هوت گفت: "در تلاش برای پیش بینی کلمه بعدی ، باید این مطالب دیگر را بطور ضمنی یاد بگیریم که زبان چگونه کار می کند." ""

بر اساس مدل زبان و داده های fMRI ، آنها سیستمی را آموزش داده اند که می تواند پیش بینی کند که چگونه مغز هنگام اولین بار شنیدن هر کلمه در یک داستان جدید پاسخ می دهد.

تلاش های گذشته نشان داده بود که می توان پاسخ های زبانی را در مغز بصورت مؤثر بومی سازی کرد. با این حال ، تحقیقات جدید نشان می دهد که اضافه کردن عنصر زمینه ای - در این مورد تا 20 کلمه پیشین - پیش بینی های فعالیت مغز را به میزان قابل توجهی بهبود می بخشد. آنها دریافتند که پیش بینی های آنها حتی وقتی از کمترین مقدار زمینه استفاده می شود ، بهبود می یابد. هرچه زمینه ارائه بیشتر باشد ، دقت پیش بینی های آنها بهتر خواهد بود.

جین گفت: "تجزیه و تحلیل ما نشان داد كه اگر LSTM كلمات بیشتری را در خود جای دهد ، در پیش بینی كلمه بعدی بهتر می شویم."

تحقیقات بیشتر انجام شد. این کاوش نشان داد که قسمت هایی از مغز نسبت به میزان زمینه حساس تر هستند. به عنوان مثال ، آنها دریافتند که مفاهیمی که به نظر می رسد در قشر شنوایی بومی سازی شده اند ، وابستگی کمتری به متن دارند.

مدل رمزگذاری متن متنی با محرکهای روایی. هر کلمه در داستان ابتدا در یک فضای تعبیه 985 بعدی پیش بینی می شود. توالی نمایش کلمات سپس به یک شبکه LSTM که به عنوان یک مدل زبان از قبل آموزش داده شده تغذیه می شود. اعتبار: آزمایشگاه هاوت ، UT آستین
هاوت توضیح داد: "اگر كلمه سگ را می شنوید ، این منطقه اهمیتی نمی دهد كه 10 كلمه قبل از آن چه بوده است ، فقط به صدای كلمه سگ پاسخ می دهند."

از طرف دیگر ، مناطقی از مغز که با تفکر سطح بالاتر سر و کار دارند ، وقتی زمینه های بیشتری را شامل می شد ، آسان تر می شدند. این پشتیبانی از تئوری های درک ذهن و زبان.

هاوت گفت: "یک مکاتبات بسیار خوب بین سلسله مراتب شبکه مصنوعی و سلسله مراتب مغز وجود داشت ، که جالب دیدیم."

پردازش زبان طبیعی یا NLP در سالهای اخیر گامهای بزرگی برداشته است. اما وقتی پاسخ به سؤالات ، گفتگوهای طبیعی یا تحلیل احساسات در متون نوشتاری می آید ، NLP هنوز راه طولانی دارد. محققان معتقدند که مدل زبانی توسعه یافته LSTM می تواند در این مناطق کمک کند.

LSTM (و به طور کلی شبکه های عصبی ) با اختصاص مقادیر در فضای بسیار بعدی به اجزای جداگانه (در اینجا ، کلمات) کار می کند تا هر مؤلفه ای بتواند با هزاران روابط متفاوت خود با بسیاری موارد دیگر تعریف کند.

محققان مدل این زبان را با تغذیه ده ها میلیون کلمه از پست های Reddit آموزش دادند. سپس سیستم آنها پیش بینی می کند که چگونه هزاران وکسل (پیکسل های سه بعدی) در مغز شش موضوع به مجموعه دوم داستان پاسخ می دهند که قبلاً نه مدل و نه افراد شنیده بودند. از آنجا که آنها به اثرات طول بافت و تأثیر لایه های انفرادی در شبکه عصبی علاقه مند بودند ، در اصل 60 عامل مختلف (20 طول حفظ بافت و سه بعد از لایه های مختلف) را برای هر موضوع آزمایش کردند.

همه اینها منجر به مشکلات محاسباتی در مقیاس عظیم می شود و نیاز به مقادیر عظیمی از قدرت محاسباتی ، حافظه ، ذخیره سازی و بازیابی داده ها دارد. منابع TACC به خوبی با این مشکل سازگار بودند. محققان برای حفظ و توزیع داده ها از ابر رایانه ماوریک استفاده کردند که شامل هم GPU و هم CPU است و Corral که یک منبع ذخیره و مدیریت داده است. آنها با موازی کردن مشکل در بسیاری از پردازنده ها ، آنها توانستند آزمایش محاسباتی را در هفته ها و نه سالها اجرا کنند.

هاوت گفت: "برای توسعه موثر این مدل ها ، به داده های آموزشی زیادی نیاز دارید." "این بدان معنی است که شما باید هر بار که بخواهید وزنه ها را به روز کنید ، از کل مجموعه داده خود عبور کنید. و اگر از منابع موازی مانند منابع TACC استفاده نکنید ، ذاتاً بسیار کند است."

اگر به نظر پیچیده است ، خوب است.

این امر باعث می شود تا هاوت و جین یک نسخه روان تر از سیستم را در نظر بگیرند ، جایی که به جای ایجاد یک مدل پیش بینی زبان و سپس استفاده از آن در مغز ، آنها مدلی را توسعه می دهند که مستقیماً پاسخ مغز را پیش بینی می کند. آنها این را یک سیستم پایان پذیر می نامند و جایی است که هاوت و جین امیدوارند که در تحقیقات آینده خود شرکت کنند. چنین مدلی عملکرد خود را مستقیماً در پاسخهای مغزی بهبود می بخشد. یک پیش بینی اشتباه از فعالیت مغز می تواند بازخورد خود را در این مدل و پیشرفت های مختلف ایجاد کند.

هاوت گفت: "اگر این کار کند ، ممکن است که این شبکه بتواند یادگیری خواندن متن یا زبان ورودی را به طور مشابه با عملکرد مغز ما بیاموزد." "Google Translate را تصور کنید ، به جای اینکه فقط یک مجموعه قوانین یاد بگیرید ، آنچه را که می گویید را درک می کند."

با وجود چنین سیستمی ، هاوت معتقد است تنها زمانی زمان بر است که یک سیستم ذهن خوانی که بتواند فعالیت مغز را به زبان ترجمه کند امکان پذیر است. در این میان ، آنها از آزمایشات خود به دانش علوم اعصاب و هوش مصنوعی دست می یابند.

جین گفت: "مغز یک ماشین حسابگر بسیار مؤثر است و هدف از هوش مصنوعی ساخت ماشینهایی است که در تمام کارهایی که یک مغز می تواند انجام دهد واقعاً خوب است." "اما ، ما چیزهای زیادی در مورد مغز نمی فهمیم. بنابراین ، ما سعی می کنیم از هوش مصنوعی استفاده کنیم تا ابتدا مغز را چگونه کار کند ، و سپس ، بر اساس بینش هایی که از طریق این روش بازجویی به دست می آوریم ، و از طریق علوم عصبی نظری ، ما از آن نتایج برای توسعه هوش مصنوعی بهتر استفاده می کنیم.

"ایده این است که سیستم های شناختی ، اعم از بیولوژیکی و مصنوعی را بشناسیم و از آنها بطور همزمان برای درک و ساخت ماشینهای بهتر استفاده کنیم."

https://tinyurl.com/y772hq8t

نظرات این مطلب

تعداد صفحات : -1

درباره ما
موضوعات
لینک دوستان
آمار سایت
  • کل مطالب : 43
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 0
  • بازدید امروز : 5
  • بازدید کننده امروز : 1
  • باردید دیروز : 15
  • بازدید کننده دیروز : 0
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 22
  • بازدید ماه : 26
  • بازدید سال : 35
  • بازدید کلی : 15767
  • <
    پیوندهای روزانه
    آرشیو
    اطلاعات کاربری
    نام کاربری :
    رمز عبور :
  • فراموشی رمز عبور؟
  • خبر نامه


    معرفی وبلاگ به یک دوست


    ایمیل شما :

    ایمیل دوست شما :



    کدهای اختصاصی