“پشت روزگار”: واشنگتن تلاش می کند تا با استفاده از هوش مصنوعی در مراقبت های بهداشتی مقابله کند


قانون‌گذاران و قانون‌گذاران در واشنگتن شروع به گیج‌کردن در مورد چگونگی تنظیم هوش مصنوعی در مراقبت‌های بهداشتی کرده‌اند – و صنعت هوش مصنوعی فکر می‌کند که شانس خوبی وجود دارد که آن را به هم بزنند.

باب واچر، رئیس دپارتمان پزشکی دانشگاه کالیفرنیا-سانفرانسیسکو، گفت: «این یک مشکل فوق‌العاده دلهره‌آور است. این خطر وجود دارد که با آتش زدن اسلحه ها وارد شویم و بیش از حد تنظیم کنیم.»

در حال حاضر، تأثیر هوش مصنوعی بر مراقبت های بهداشتی گسترده است. سازمان غذا و دارو حدود 692 محصول هوش مصنوعی را تایید کرده است. الگوریتم‌ها به برنامه‌ریزی بیماران، تعیین سطح کارکنان در اتاق‌های اورژانس، و حتی رونویسی و خلاصه کردن بازدیدهای بالینی برای صرفه‌جویی در وقت پزشکان کمک می‌کنند. آنها شروع به کمک به رادیولوژیست ها در خواندن MRI و اشعه ایکس کرده اند. واچر گفت که او گاهی اوقات به صورت غیررسمی با نسخه ای از GPT-4، یک مدل زبان بزرگ از شرکت OpenAI، برای موارد پیچیده مشورت می کند.

دامنه تأثیر هوش مصنوعی – و پتانسیل تغییرات آینده – به این معنی است که دولت در حال حاضر در حال جبران است.

مایکل یانگ، شریک مدیریت ارشد در OMERS Ventures، یک شرکت سرمایه گذاری خطرپذیر، در ایمیلی گفت: «سیاست گذاران به طرز وحشتناکی از زمان عقب مانده اند. همتایان یانگ سرمایه گذاری های گسترده ای در این بخش انجام داده اند. راک هلث، یک شرکت سرمایه گذاری خطرپذیر، می گوید سرمایه گذاران نزدیک به 28 میلیارد دلار به شرکت های سلامت دیجیتال متخصص در هوش مصنوعی اختصاص داده اند.

واچتر گفت، یکی از مسائلی که تنظیم‌کننده‌ها با آن دست و پنجه نرم می‌کنند این است که برخلاف داروها که پنج سال بعد همان شیمی امروزی را خواهند داشت، هوش مصنوعی در طول زمان تغییر می‌کند. اما حکومتداری در حال شکل گیری است و کاخ سفید و چندین آژانس متمرکز بر سلامت قوانینی را برای تضمین شفافیت و حفظ حریم خصوصی ایجاد می کنند. کنگره نیز علاقه چشمگیری دارد. کمیته مالی سنا در 8 فوریه جلسه ای در مورد هوش مصنوعی در مراقبت های بهداشتی برگزار کرد.

همراه با مقررات و قوانین، لابی‌گری افزایش یافته است. CNBC افزایش 185 درصدی در تعداد سازمان‌هایی را که فعالیت‌های لابی‌گری هوش مصنوعی را در سال 2023 فاش می‌کنند، محاسبه کرده است. گروه تجاری TechNet یک ابتکار 25 میلیون دلاری از جمله خرید تبلیغات تلویزیونی را برای آموزش بینندگان در مورد مزایای هوش مصنوعی راه‌اندازی کرده است.

باب کوچر، شریک شرکت سرمایه گذاری خطرپذیر Venrock که قبلا در دولت اوباما خدمت می کرد، در ایمیلی گفت: «دانستن نحوه تنظیم هوشمندانه هوش مصنوعی بسیار سخت است، زیرا ما در مراحل اولیه اختراع فناوری هستیم.

کوچر با سناتورها در مورد مقررات هوش مصنوعی صحبت کرده است. او بر برخی از مشکلاتی که سیستم مراقبت های بهداشتی در پذیرش محصولات با آن مواجه خواهد بود، تاکید می کند. پزشکان – که با خطرات قصور مواجه هستند – ممکن است در استفاده از فناوری که آنها را درک نمی کنند برای تصمیم گیری بالینی سهل انگاری کنند.

تجزیه و تحلیل داده های اداره سرشماری از ژانویه توسط موسسه مشاوره Capital Economics نشان داد که 6.1٪ از مشاغل مراقبت های بهداشتی در حال برنامه ریزی برای استفاده از هوش مصنوعی در شش ماه آینده هستند، تقریبا در میانه 14 بخش مورد بررسی.

مانند هر محصول پزشکی، سیستم های هوش مصنوعی می توانند خطراتی را برای بیماران ایجاد کنند، گاهی اوقات به روشی جدید. یک مثال: آنها ممکن است چیزهایی را درست کنند.

واچر یکی از همکارانش را به یاد می آورد که به عنوان آزمایش، GPT-3 OpenAI را برای نوشتن نامه مجوز قبلی به یک بیمه گر برای یک نسخه عمدی “محوول کننده” به یاد آورد: رقیق کننده خون برای درمان بی خوابی بیمار.

او گفت، اما هوش مصنوعی “یادداشت زیبایی نوشت.” این سیستم چنان قانع‌کننده‌ای از «ادبیات اخیر» استناد کرد که همکار واچر برای مدت کوتاهی از خود پرسید که آیا او خط جدیدی از تحقیقات را از دست داده است. معلوم شد ربات چت آن را ساخته است.

خطر سوگیری بزرگنمایی هوش مصنوعی در حال حاضر در سیستم مراقبت بهداشتی وجود دارد. از نظر تاریخی، رنگین پوستان نسبت به بیماران سفیدپوست مراقبت کمتری دریافت کرده اند. برای مثال، مطالعات نشان می‌دهد که بیماران سیاه‌پوست با شکستگی کمتر از سفیدپوستان داروی مسکن دریافت می‌کنند. این سوگیری ممکن است زمانی ایجاد شود که هوش مصنوعی بر روی آن داده ها آموزش داده شود و متعاقباً عمل کند.

تحقیقات در مورد هوش مصنوعی که توسط شرکت های بیمه بزرگ به کار گرفته شده است، این اتفاق را تأیید کرده است. اما مشکل گسترده تر است. واچر گفت UCSF محصولی را برای پیش‌بینی عدم نمایش برای قرار ملاقات‌های بالینی آزمایش کرد. بیمارانی که بعید به نظر می رسد برای ویزیت حاضر شوند، احتمال بیشتری دارد که دو بار رزرو شوند.

این آزمایش نشان داد که افراد رنگین پوست به احتمال زیاد ظاهر نمی شوند. واچر گفت خواه این یافته دقیق بود یا نه، “پاسخ اخلاقی این است که بپرسیم چرا اینطور است، و آیا کاری وجود دارد که شما می توانید انجام دهید.”

جدای از تبلیغات، این خطرات احتمالاً در طول زمان توجه را به خود جلب خواهند کرد. کارشناسان هوش مصنوعی و مقامات FDA بر نیاز به الگوریتم‌های شفاف که در درازمدت توسط انسان‌ها – تنظیم‌کننده‌ها و محققان خارجی – نظارت می‌شوند، تأکید کرده‌اند. محصولات هوش مصنوعی با گنجاندن داده‌های جدید سازگار شده و تغییر می‌کنند. و دانشمندان محصولات جدیدی را توسعه خواهند داد.

کاترین بایکر، استاد دانشگاه شیکاگو، که در جلسه استماع کمیته مالی شهادت داد، گفت: سیاست گذاران باید در سیستم های جدید برای ردیابی هوش مصنوعی در طول زمان سرمایه گذاری کنند. او در مصاحبه ای گفت: “بزرگترین پیشرفت چیزی است که ما هنوز به آن فکر نکرده ایم.”

مطالب مرتبط

تماس با ما ارسال یک نکته داستان