loading...

azaval

بازدید : 384
سه شنبه 13 خرداد 1399 زمان : 20:59

تیم کوچکی از محققان پزشکی دانشگاه هاروارد و MIT بخشی از Forum Policy را در ژورنال Science منتشر کرده اند که نشان می دهد سیستم های هوش مصنوعی پزشکی آینده می توانند در مقابل حملات دشمن قرار بگیرند. آنها خاطرنشان كردند كه تحقيقات قبلي نشان داده است كه تقريبا تمام سيستم هاي هوش مصنوعي به نوعي در برابر چنين حملاتي آسيب پذير هستند.

بیشتر بخوانید: قیمت اکچویتور
حمله خصمانه در زمینه یادگیری ماشینی تلاشی است از طریق ورود مخرب برای فریب دادن مدلی که چنین سیستمی روی آن ساخته شده است. در عمل ، این به معنای تغذیه یک سیستم هوش مصنوعی به نوعی اطلاعات است که آن را وادار می کند تا نتایج نادرست را برگرداند. محققان می گویند چنین حمله ای می تواند به سیستم های تشخیصی مانند برنامه ریزی شده برای یافتن سرطان با تجزیه و تحلیل اسکن انجام شود. آنها حتی نشان دادند كه چگونه با تغذیه یك سیستم الگوی صوتی خاصی كه باعث سردرگمی شده و نتیجه نتایج نادرست ایجاد می كند ، یك حمله خصمانه عمل می كند.

اما این نوعی حمله خصمانه نیست که محققان واقعاً نگران آن هستند. آنچه بیشتر آنها را نگران می کند سیستم های هوش مصنوعی است که توسعه یافته و در حال استفاده است که قبلاً در پردازش مطالبات و صورتحساب دخیل هستند - این امکان وجود دارد که بیمارستان ها یا حتی پزشکان بتوانند از چنین سیستم هایی برای تغییر اطلاعات در فرم ها استفاده کنند تا اطلاعات مربوط به فرم ها را تغییر دهند تا هزینه بیشتری توسط شرکت های بیمه پرداخت شود یا به عنوان مثال ، Medicaid برای انجام آزمایشات ، با تغییر یک کد برای ایجاد اشعه ایکس ساده مانند آزمایش MRI. تغذیه یک سیستم هوش مصنوعی به اطلاعات مناسب در زمان مناسب می تواند این کار را انجام دهد. همچنین این احتمال وجود دارد که یک بیمارستان بتواند به سیستم هوش مصنوعی خود آموزش دهد که بهترین راه های کلاهبرداری شرکت های بیمه یا دولت را پیدا کند و تشخیص آن را تقریبا غیرممکن می کند.

محققان پیشنهاد می کنند که یک رویکرد جدید برای سیاست گذاری مورد نیاز است - روشی که در آن افراد از طیف های مختلفی از جمله قانون ، علوم کامپیوتر و پزشکی پیش از شیوع این مشکل برطرف شوند. چنین گروه هایی شاید ، راههای جلوگیری از وقوع آن را پیدا کنند یا حداقل در صورت بروز آن ، آن را تشخیص دهند.

تیم کوچکی از محققان پزشکی دانشگاه هاروارد و MIT بخشی از Forum Policy را در ژورنال Science منتشر کرده اند که نشان می دهد سیستم های هوش مصنوعی پزشکی آینده می توانند در مقابل حملات دشمن قرار بگیرند. آنها خاطرنشان كردند كه تحقيقات قبلي نشان داده است كه تقريبا تمام سيستم هاي هوش مصنوعي به نوعي در برابر چنين حملاتي آسيب پذير هستند.

بیشتر بخوانید: قیمت اکچویتور
حمله خصمانه در زمینه یادگیری ماشینی تلاشی است از طریق ورود مخرب برای فریب دادن مدلی که چنین سیستمی روی آن ساخته شده است. در عمل ، این به معنای تغذیه یک سیستم هوش مصنوعی به نوعی اطلاعات است که آن را وادار می کند تا نتایج نادرست را برگرداند. محققان می گویند چنین حمله ای می تواند به سیستم های تشخیصی مانند برنامه ریزی شده برای یافتن سرطان با تجزیه و تحلیل اسکن انجام شود. آنها حتی نشان دادند كه چگونه با تغذیه یك سیستم الگوی صوتی خاصی كه باعث سردرگمی شده و نتیجه نتایج نادرست ایجاد می كند ، یك حمله خصمانه عمل می كند.

اما این نوعی حمله خصمانه نیست که محققان واقعاً نگران آن هستند. آنچه بیشتر آنها را نگران می کند سیستم های هوش مصنوعی است که توسعه یافته و در حال استفاده است که قبلاً در پردازش مطالبات و صورتحساب دخیل هستند - این امکان وجود دارد که بیمارستان ها یا حتی پزشکان بتوانند از چنین سیستم هایی برای تغییر اطلاعات در فرم ها استفاده کنند تا اطلاعات مربوط به فرم ها را تغییر دهند تا هزینه بیشتری توسط شرکت های بیمه پرداخت شود یا به عنوان مثال ، Medicaid برای انجام آزمایشات ، با تغییر یک کد برای ایجاد اشعه ایکس ساده مانند آزمایش MRI. تغذیه یک سیستم هوش مصنوعی به اطلاعات مناسب در زمان مناسب می تواند این کار را انجام دهد. همچنین این احتمال وجود دارد که یک بیمارستان بتواند به سیستم هوش مصنوعی خود آموزش دهد که بهترین راه های کلاهبرداری شرکت های بیمه یا دولت را پیدا کند و تشخیص آن را تقریبا غیرممکن می کند.

محققان پیشنهاد می کنند که یک رویکرد جدید برای سیاست گذاری مورد نیاز است - روشی که در آن افراد از طیف های مختلفی از جمله قانون ، علوم کامپیوتر و پزشکی پیش از شیوع این مشکل برطرف شوند. چنین گروه هایی شاید ، راههای جلوگیری از وقوع آن را پیدا کنند یا حداقل در صورت بروز آن ، آن را تشخیص دهند.

نظرات این مطلب

تعداد صفحات : -1

درباره ما
موضوعات
آمار سایت
  • کل مطالب : 43
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 0
  • بازدید امروز : 1
  • بازدید کننده امروز : 1
  • باردید دیروز : 3
  • بازدید کننده دیروز : 0
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 9
  • بازدید ماه : 22
  • بازدید سال : 65
  • بازدید کلی : 15797
  • <
    پیوندهای روزانه
    آرشیو
    اطلاعات کاربری
    نام کاربری :
    رمز عبور :
  • فراموشی رمز عبور؟
  • خبر نامه


    معرفی وبلاگ به یک دوست


    ایمیل شما :

    ایمیل دوست شما :



    کدهای اختصاصی