هوش مصنوعی در زمینه‌ بهداشت و درمان هنوز راه زیادی را در پیش دارد

پنج‌شنبه ۷ بهمن ۱۴۰۰ - ۲۲:۳۰
مطالعه 5 دقیقه
با وجود پژوهش‌ها و تلاش‌های متعدد، کاربرد هوش مصنوعی در زمان دنیاگیری کرونا چندان موفقیت آمیز نبود و نواقص زیاد آن آشکار شد.
تبلیغات

دنیاگیری ویروس کرونا زمینه‌ساز تلاش‌های بی‌شمار از اقدام‌های قهرمانانه‌ی فردی تا گام‌های شگفت‌انگیز علمی جمعی شد. شرکت‌های داروسازی از فناوری‌های جدید برای توسعه‌ی واکسن‌های مؤثر در مدت زمانی بی‌سابقه استفاده کردند. آزمایش‌های بالینی جدید درک جهان از ممکن‌ها و غیرممکن‌ها را در مبارزه با کووید ۱۹ متحول ساختند. حالا مؤسسه‌ی بریتانیایی آلان تورینگ گزارشی را درباره‌ی تأثیر هوش مصنوعی بر این بحران منتشر کرده است که چندان امیدوارکننده نیست.

بر‌‌اساس گزارش مؤسسه‌ی تورینگ که سال گذشته منتشر شد، هوش مصنوعی تأثیر اندکی بر دنیاگیری گذاشته است و کارشناسان در ارزیابی داده‌های سلامتی و کاربرد بدون انحراف این فناوری دچار مشکلات گسترده‌ای شدند. این گزارش بر‌‌اساس مطالعه‌ی موردی روی بیش از صد پژوهش منتشر شد. طبق این بررسی‌ها، تقریباً تمام ابزارهای هوش مصنوعی برای تشخیص علائم کووید ۱۹ نواقصی داشتند. بلال متین، پزشک و پژوهشگر و ویراستار گزارش تورینگ، دراین‌باره می‌گوید:

هدف ما تأکید بر نقاط درخشانی بود که نتایج این فناوری را نشان می‌دادند. متأسفانه نتوانستیم این نقاط درخشان را پیدا کنیم و در عوض مشکلات زیادی را یافتیم.

درک‌کردنی است که ابزاری نسبتاً جدید در بهداشت و درمان مثل هوش مصنوعی به‌تنهایی نمی‌تواند راه‌حلی ارائه کند. با وجود امیدهای بسیار به‌سختی می‌توان بهبود بهداشت و درمان را تنها ازطریق داده‌های الگوریتمی ثابت کرد.

بسیاری از پژوهش‌ها از نمونه‌های داده‌های پزشکی گذشته استفاده می‌کنند. بنابر این گزارش‌ها، الگوریتم‌ها در انجام وظایفی مشخص مثل یافتن سرطان‌های پوستی یا پیش‌بینی نتایج بیمار بسیار دقیق عمل می‌کنند. برخی از پژوهش‌ها هم از محصولات ثابت‌شده‌ای استفاده می‌کنند که پزشکان برای نظارت بر علائم سکته یا بیماری‌های چشمی به‌کار می‌برند.

بسیاری از ایده‌های مربوط به بهداشت و درمان هوش مصنوعی از اثبات‌های اولیه‌ فراتر نمی‌روند. همچنین، پژوهشگرها هشدار می‌دهند که بسیاری از بررسی‌ها از داده‌های کافی یا باکیفیت برای آزمودن صحیح برنامه‌های هوش مصنوعی استفاده نمی‌کنند. بدین‌ترتیب، ریسک آسیب‌های ناشی از فناوری‌های نامطمئن افزایش می‌یابد. برخی از الگوریتم‌های بهداشت و درمانی هم دربرابر گروه‌های آماری خاص، اطمینان‌ناپذیر هستند یا انحراف دارند.

فشرده‌سازی داده‌ها برای بهبود بهداشت و درمان دستاورد جدیدی نیست. این روش برای همه‌گیر‌شناسی در سال ۱۸۵۵ آغاز شد. در آن زمان، پزشکی لندنی به نام جان اسنو نمونه‌های مشخص وبا را برای اثبات آبزی‌بودن این بیماری روی نقشه نمایش داد. اخیراً پزشکان، پژوهشگر‌ان و متخصصان فناوری درباره‌ی روش‌های یادگیری ماشین در پروژه‌های صنعتی مثل مرتب‌سازی تصاویری یا تبدیل گفتار به نوشتار علاقه‌مند شده‌اند.

بااین‌حال، شرایط شرکت‌های فناوری با شرایط داخل بیمارستان‌ها متفاوت است. شرکت‌هایی مثل فیسبوک می‌توانند به میلیاردها پست کاربران برای بهبود الگوریتم‌های تشخیص تصویر دسترسی پیدا کنند؛ اما دسترسی به داده‌های سلامتی به‌دلیل نگرانی‌های حریم خصوصی و سیستم‌های پرنقص IT دشوار است. همچنین، توسعه‌‌ی الگوریتمی که بتواند وضعیت بهداشت و درمانی شخصی را مشخص کند، ریسک بیشتری از فیلترکردن اسپم یا تبلیغات هدف دارد. ویسار بریشا، استادیار دانشگاه ایالتی آریزونا، بیان می‌کند:

نمی‌توانیم الگوهای توسعه‌ی ابزار هوش مصنوعی که در فضاهای کاربری نتیجه‌بخش بوده‌اند، وارد حوزه‌ی پزشکی کنیم.
هوش مصنوعی و آناتومی بدن انسان

بریشا اخیراً مقاله‌ای مشترک با همکاران خود از بخش‌های درمان و مهندسی دانشگاه آریزونا منتشر کرده است که نشان می‌دهد بسیاری از بررسی‌های هوش مصنوعی سلامتی، الگوریتم‌ها را دقیق‌تر از آنچه هستند، نشان می‌دهند؛ زیرا از الگوریتم‌های قوی روی مجموعه‌ داده‌های کوچک استفاده می‌کنند.

دلیل این مسئله آن است که داده‌های سلامتی مثل پردازش تصویر پزشکی، علائم حیاتی و داده‌های مربوط به دستگاه‌های پوشیدنی متناسب با فاکتورهای دیگری مثل سبک زندگی یا نویز پس‌زمینه تغییر می‌کنند. الگوریتم‌های یادگیری ماشین که در دنیای فناوری به محبوبیت زیادی رسیده‌اند، در یافتن الگوها عملکرد موفقی دارند؛ به‌طوری‌که می‌توانند میان‌برهایی را به پاسخ‌های صحیح کشف کنند. مجموعه داده‌های کوچک‌تر امکان تقلب الگوریتم‌ها را آسان‌تر و نقاط کوری را ایجاد می‌کنند که عامل نتایج ضعیف بالینی هستند. بریشا می‌افزاید:

جامعه‌ خود را این گونه فریب می‌دهد که ما در حال توسعه‌ی مدل‌هایی با عملکرد بهتر هستیم.

به‌گفته‌ی بریشا، این مشکل می‌تواند به الگوی نگران‌کننده‌ای در برخی پژوهش‌های بهداشت و درمانی هوش مصنوعی بینجامد. بریشا و همکارانش پس از بررسی پژوهش‌هایی که از الگوریتم‌ها برای کشف علائم آلزایمر یا اختلال شناختی در گفتار استفاده کرده بودند، متوجه شدند پژوهش‌های بزرگ‌تر دقت کمتری از پژوهش‌های کوچک‌تر دارند. ناگفته نماند مروری بر پژوهش‌ها که برای شناسایی اختلال‌های مغزی بر‌‌اساس اسکن‌های پزشکی به‌کار می‌روند یا پژوهش‌هایی که برای کشف اوتیسم با یادگیری ماشین در تلاش‌اند، الگوی مشابهی نشان دادند.

برخی الگوریتم‌ها در بررسی‌های اولیه عملکرد مناسبی دارند؛ اما روی داده‌های واقعی بیمار متفاوت عمل می‌کنند و نمی‌توان این خطر را نادیده گرفت. طبق پژوهشی در سال ۲۰۱۹، سیستمی از میلیون‌ها بیمار برای اولویت‌بندی دسترسی به درمان استفاده کرد و بیماران سفیدپوست را در اولویت بیشتری از بیماران سیاه‌پوست قرار داد.

برای اجتناب از سیستم‌های دارای انحراف به مجموعه‌های متوازنی از داده‌ها و آزمون دقیق نیاز داریم؛ اما وجود داده‌های دارای انحراف در پژوهش‌های هوش مصنوعی سلامت به‌دلیل نابرابری‌های پیوسته عادی است. بر‌‌اساس بررسی سال ۲۰۲۰، پژوهشگران دانشگاه استنفورد ۷۱ درصد از داده‌های به‌کاررفته در پژوهش‌های یادگیری عمیق از کالیفرنیا یا ماساچوست یا نیویورک به‌دست آمدند؛ درحالی‌که ۴۷ ایالت دیگر آمار کم یا فاقد آمار داشتند. کشورهای کم‌درآمد به‌ندرت در مطالعات بهداشت و درمانی هوش مصنوعی مشارکت می‌کنند. بر‌‌اساس پژوهشی که در سال گذشته منتشر شد، از میان ۱۵۰ بررسی مربوط به کاربرد یادگیری ماشین در پیش‌بینی تشخیص یا دوره‌های بیماری، اغلب پژوهش‌ها کیفیت روش‌شناسی ضعیفی داشتند و به‌شدت درمعرض خطر انحراف قرار داشتند.

دو پژوهشگر سازمانی غیرانتفاعی به نام Nightingale Open Sicence را تأسیس کردند تا برای بهبود کیفیت و مقیاس مجموعه‌های داده‌‌ای دردسترس پژوهشگران تلاش کنند. این شرکت با سیستم‌های بهداشت و درمانی برای جمع‌آوری تصاویر پزشکی و داده‌های مرتبط با سوابق بیماران همکاری می‌کنند تا داده‌ها را تحلیل کنند و سپس این داده‌ها را دراختیار پژوهش‌های غیرانتفاعی قرار دهد.

زیاد اوبرمیر، یکی از بنیان‌گذاران نایتینگل و استادیار دانشگاه برکلی کالیفرنیا، امیدوار است با فراهم‌کردن دسترسی به داده‌‌ها مشارکت را افزایش دهد و به نتایج بهتری منجر شود، درست همان‌طورکه مجموعه‌های بزرگ و باز تصاویر می‌توانند به پیشبرد یادگیری ماشین کمک کنند. او می‌گوید:

هسته‌ی این مشکل اینجا است که پژوهشگر می‌تواند هر کاری که بخواهد، در داده‌های سلامت انجام دهد؛ زیرا هیچ‌کس نمی‌تواند نتایج را بررسی کند.

نایتینگل در تلاش برای بهبود هوش مصنوعی بهداشت و درمان و تقویت دسترسی به داده‌ها و کیفیت آن‌ها در پروژه‌های دیگر هم همکاری می‌کند. Lacuna Fund از ایجاد مجموعه‌های یادگیری ماشین در کشورهای متوسط و کم‌درآمد حمایت می‌کند و در حال کار روی سیستمی بهداشت و درمان است. این پروژه‌ی جدید در بیمارستان دانشگاه بیرمنگام بریتانیا با برخورداری از حمایت سازمان خدمات سلامت عمومی (NHS) و MIT به‌دنبال توسعه‌ی استانداردهایی برای ارزیابی سیستم‌های هوش مصنوعی بر‌‌اساس داده‌های بدون انحراف است.

متین، ویراستار گزارش بریتانیا، درباره‌ی الگوریتم‌های دنیاگیری هم یکی از هواداران پروژه‌های هوش مصنوعی این‌چنینی است؛ اما معتقد است چشم‌انداز بهداشت و درمان هوش مصنوعی به‌شدت به سیستم‌های سلامتی وابسته است. او می‌گوید:

باید روی ریشه‌ی مشکل سرمایه‌گذاری کرد و منتظر نتایج ماند.
مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات