Open/Close Menu وکیل | مشاوره رایگان | وکالت | وکیل آنلاین

در روزهای پایانی دولت ترامپ ، دو آژانس بر سر چگونگی تنظیم ابزارهای هوش مصنوعی در مراقبت های بهداشتی با یکدیگر درگیر شدند. سازمان غذا و دارو طرحی را برای چگونگی تنظیم تغییرات نرم افزار پزشکی مبتنی بر هوش مصنوعی در آینده ترسیم کرده است ، زمانی که وزارت بهداشت و خدمات انسانی پیشنهاد داد که FDA باید بررسی برخی ابزارهای نرم افزاری را متوقف کند.

چهره ناگهانی باعث تعجب بسیاری شد و به نظر می رسید که در مقابل برنامه هایی که FDA چند روز قبل ترسیم کرده بود پرواز کند.

لیست معافیت های پیشنهادی شامل برخی از موارد معمول استفاده از هوش مصنوعی در مراقبت های بهداشتی ، مانند نرم افزاری است که برای پرچم گذاری ضایعات مشکوک به سرطان استفاده می شود ، و رادیولوژی و تریاژ و نرم افزار اطلاع رسانی با کمک رایانه. همچنین ابزارهای دیجیتال بهداشتی که برای درمان اختلالات روانپزشکی مورد استفاده قرار می گیرند ، به طور دائم مورد استفاده قرار می گیرند که FDA در پاسخ به بیماری همه گیر معاف کرد.

برای توجیه تغییر ، HHS هزینه اخذ مجوز 510 (k) را ذکر کرد که در آن شرکت ها باید ثابت کنند که دستگاه “کاملاً معادل” با دستگاهی است که قبلاً توسط آژانس تأیید شده است و همچنین عدم گزارش رویدادهای جانبی.

اما مشخص نیست که آیا دولت بایدن – از جمله وزیر جدید HHS ، خاویر Becerra – تغییرات پیشنهادی را اجرا می کند یا خیر.

FDA لحن تنظیم آینده را تعیین می کند

به نوبه خود ، FDA چنین کرده است یک برنامه عملیاتی پنج بخشی را شرح داد در مورد چگونگی تنظیم ابزار یادگیری ماشین در مراقبت های بهداشتی به جلو. این مقاله سعی در حل مشکلات گره خورده ای داشت که چگونه الگوریتم ها را شفاف تر می کند ، چگونه آنها را برای تعصب ارزیابی می کند و اینکه آژانس پس از اجرای الگوریتم ها چگونه تغییرات را کنترل می کند.

باکول پاتل ، مدیر مرکز تعالی سلامت دیجیتال جدید FDA ، از این طرح به عنوان راهی برای تحقق پتانسیل این فن آوری ها ضمن اطمینان از ایمن و موثر بودن آنها ، یاد کرد.

یک مسئله طولانی که به آن پرداخته نشد این بود که الگوریتم های خاصی تحت حوزه FDA قرار دارند یا نه. این منطقه حتی قبل از پیشنهاد HHS یک منطقه خاکستری بوده است و برخی از ابزارهای پشتیبانی تصمیم گیری بالینی تحت قانون درمان قرن بیست و یکم معاف شده اند.

Michele Buenafe ، شریک مورگان لوئیس ، در یک مصاحبه تلفنی گفت: “برای نرم افزار به طور کلی ، یک راهنمای جامع مشخص وجود ندارد که بگوید این زمانی است که نرم افزار تنظیم می شود و هنگامی که نرم افزار تنظیم نمی شود.”

مشخصات چگونگی دستیابی دقیق FDA به برخی از این اهداف مانند ارزیابی ابزارهای هوش مصنوعی برای تعصب نیز مبهم بود. این آژانس گفت که با دانشگاه کالیفرنیا سانفرانسیسکو ، دانشگاه استنفورد و دانشگاه جان هاپکینز در حال توسعه روش هایی برای ارزیابی نرم افزار پزشکی مبتنی بر یادگیری ماشین بوده است.

در برنامه عملیاتی FDA آمده است: “از آنجا كه سیستم های AI / ML با استفاده از داده های مجموعه داده های تاریخی توسعه و آموزش می یابند ، در برابر سوگیری آسیب پذیر هستند – و مستعد انعطاف پذیری انعطاف پذیر موجود در داده ها هستند.” “شناخته شده است که ارائه مراقبت های بهداشتی با عواملی مانند نژاد ، قومیت و وضعیت اقتصادی-اجتماعی متفاوت است. بنابراین ممکن است تعصبات موجود در سیستم مراقبت های بهداشتی ما ناخواسته به الگوریتم ها وارد شود. “

دکتر جان فروونفلتر ، رئیس ارشد پزشکی ، گفت که Jvion ، ساخت سیستمی برای شناسایی بیماران در معرض خطر یک رویداد نامطلوب ، از مجموعه داده های گسترده ای برای جلوگیری از این مشکلات استفاده می کند. همچنین عوامل اجتماعی را در نظر می گیرد. به عنوان مثال ، یک ساعت رفت و آمد در حمل و نقل عمومی می تواند یک عامل خطر برای بیمار شدن کسی از Covid-19 باشد.

فرونفلتر در نامه ای نوشت: “در حالی كه برنامه اقدام نظارت FDA به خوبی در نظر گرفته شده است ، اما باید دید كه آیا طراحی جزئیات این طرح تعادل درستی را ایجاد می كند؟” “امیدوارم که برنامه اقدام بتواند به جای خفه کردن یادگیری سریع که هوش مصنوعی بالینی امکان ایجاد آن را دارد ، امکان پذیر باشد.”

نحوه تنظیم سیستمهایی که “یاد می گیرند”

یکی از جنبه های جالب توجه FDA این بود که چگونه می خواهد با ابزارهای یادگیری ماشین که “در هنگام قرار گرفتن در معرض داده های بیشتری” یاد می گیرند ، از عهده آنها برآید. در عمل ، بیشتر الگوریتم های مورد استفاده در مراقبت های بهداشتی به این روش کار نمی کنند – آنها “قفل شده اند” ، به این معنی که نمی توانند با گذشت زمان سازگار شوند.

FDA گفت که قصد دارد پیش نویس راهنمای امسال را برای چارچوبی که توسعه دهندگان می توانند برای تصویب تغییرات آتی که برای یک سیستم هوش مصنوعی پیش بینی می کنند ، ارائه دهند ، صادر کند. FDA سال گذشته این روش را با Caption Health آزمایش کرد ، استارتاپی که الگوریتم آن برای کمک به پزشکان در انجام سونوگرافی قلب است در ماه فوریه مجوز de-novo دریافت کرد. از قضا ، تحت رهنمودهای پیشنهادی HHS از مجوز FDA معاف می شود.

ابزاری هوش مصنوعی که Caption ساخته شده است برای کمک به پزشکان در گرفتن تصاویر سونوگرافی قلب طراحی شده است که انجام آن بسیار دشوار است و به کاربران نیاز دارد تا مبدل ها را در یک موقعیت خاص متمایل کرده و تصویر مورد نیاز را حرکت دهند. این راهنمایی در مورد زمان نزدیک بودن کاربر به مکان مطلوب به کاربر ارائه می دهد.

سام سورت ، رئیس امور نظارتی و تضمین کیفیت تیتر بهداشت ، در یک مصاحبه گفت: “من واقعاً این مفهوم را دوست داشتم که به شرکتها اجازه دهد دامنه ای از تغییرات آینده را که انتظار دارند انجام دهند ، ارائه دهند.” “آنها اساساً حدودی را تغییر می دهند که الگوریتم مجاز به تغییر باشد و می گویند که با این کار راحت هستند و آن را به عنوان بخشی از دستگاه پاک می کنند.”

حتی با این اجازه ، الگوریتم Caption به طور مداوم در سایت “یاد نمی گیرد”. هر تغییر قبل از اینکه در اختیار کاربران Caption قرار گیرد ، آزمایش می شود. Surette گفت ، اگرچه ایده هوش مصنوعی که به طور مداوم به روز می شود ، می تواند هیجان انگیز باشد ، اما بسیاری از شرکت های بهداشتی هنوز نتوانسته اند برای اجرای آن مفید باشد.

وی افزود: “ما از نظر هوش مصنوعی تطبیقی ​​از آن روبیكون عبور نكرده ایم اما این زمینه را ایجاد می كند.”

بونافه گفت ، جدا از برنامه های FDA برای ساخت این چارچوب ، بقیه برنامه های آن “بی شکل” بودند.

وی گفت: “مشخص نیست كه چگونه لرزش خواهد داشت ، چگونه می تواند بر توسعه دهندگان فن آوری هوش مصنوعی یا یادگیری ماشین یا بیمارانی كه ممكن است توسط این فناوری تحت درمان یا تشخیص قرار بگیرند ، تأثیر بگذارد.”

اعتبار عکس: Pixtum ، گتی ایماژ

logo-footer