تشخیص پزشکی هوش مصنوعی قابل اعتماد است؟

تشخیص پزشکی هوش مصنوعی قابل اعتماد است؟

پریسا عباسی: دانشمندان کامپیوتری که در گوگل و DeepMind (یک شرکت هوش مصنوعی) کار می کنند، نسخه ای از برنامه پزشک هوش مصنوعی را ارائه کرده اند که می تواند بیماری ها را بر اساس شرایط و علائم خاص با استفاده از یک مدل زبانی بزرگ به نام PaLM تشخیص دهد. .

طبق مقاله اولیه از پیش منتشر شده توسط این گروه، مدل آنها توانسته است با توجه به ادعای آنها مبنی بر افزایش 17 درصدی نسبت به حالت قبلی خود، در آزمون آزمایشی حاوی سؤالات آزمون مجوز پزشکی ایالات متحده، 67.6 درصد امتیاز کسب کند. software -art.slow کار هر کدام از نسخه های این مدل با پزشک انسان برابری می کند. اما اخطارهای زیادی در مورد این الگوریتم ها و الگوریتم های مشابه وجود دارد.

این مدل بر اساس مجموعه ای از اطلاعات مبتنی بر بیش از 3000 پرسش پزشکی مکرر جستجو شده (در اینترنت) و همچنین اطلاعات از 6 پایگاه داده باز اختصاص داده شده به پرسش و پاسخ های پزشکی که شامل معاینات پزشکی و تحقیقات موردی پزشکی می باشد. در مرحله آزمایشی، محققان پاسخ‌های دریافتی از دو نسخه هوش مصنوعی را با پزشکان انسانی مقایسه کردند و این پاسخ‌ها را از نظر صحت، واقع‌گرایی، مرتبط بودن، مفید بودن، انطباق با نظریه جامع علمی فعلی، ایمنی و جهت‌گیری بررسی کردند.

آدریانا پورترفلت، مهندس نرم‌افزاری که روی گوگل کروم کار می‌کند و در این تحقیق شرکت نداشت، در توییتر گفت که نسخه‌ای از این مدل که به سؤالات پزشکی مشابه پزشکان پاسخ می‌دهد باید یک ویژگی اضافه شود و آن «دستورالعمل‌های تنظیم‌شده» است. این یک فرآیند انسانی است و از آنجایی که پرزحمت است، ارزش این همه زحمت را ندارد.” این شامل اصلاح دقیق عبارت سوال به نحوی است که به هوش مصنوعی اجازه می دهد اطلاعات صحیح را دریافت کند.

محققان در این مقاله نوشتند: «این مدل دلگرم‌کننده است، اما به میزان کمتری نسبت به پزشکان». و اینکه: “درک این مدل در پزشکی، بازیابی و یادآوری دانش و استدلال پزشکی، با مدل های تحقیقاتی و تنظیم سریع دستورالعمل ها افزایش می یابد.” به عنوان مثال، هر نسخه از هوش مصنوعی، در مقایسه با پاسخ های انسانی، اطلاعات مهمی را از دست می دهد و حاوی محتوای نادرست و نامناسب است.

مدل‌های گفتاری در تجزیه اطلاعات پیچیده بهتر می‌شوند. و به نظر می رسد که آنها با وظایفی که نیاز به دانش و استدلال علمی دارند به خوبی انجام می دهند. چندین مدل کوچک، از جمله SciBERT و PubMedBERT، مرزهای مدل‌های زبانی را برای درک متون مملو از اصطلاحات فراتر برده‌اند.

اما در زمینه های زیست پزشکی و علمی، عوامل پیچیده و ناشناخته زیادی وجود دارد. و اگر هوش مصنوعی اشتباه کند، چه کسی پاسخگو خواهد بود؟ از آنجایی که اطلاعات چندین الگوریتم مانند یک جعبه سیاه عمل می کند، آیا می توان منبع خطا را شناسایی و ردیابی کرد؟ علاوه بر این، الگوریتم‌ها (که شامل دستورالعمل‌های ریاضی هستند که توسط برنامه‌نویسان به کامپیوتر داده می‌شوند) ناقص هستند و به داده‌های آموزشی کامل و صحیح نیاز دارند که ممکن است در هر موقعیت و همه‌جا در دسترس نباشد. علاوه بر این، خرید و مدیریت داده های مرتبط با سلامت می تواند گران باشد.

پاسخ صحیح به سوالات آزمون چند گزینه ای استاندارد نشانه هوش نیست. و مهارت های تحلیلی رایانه ممکن است در موارد پزشکی بالینی در دنیای واقعی بسیار کم باشد. بنابراین در حالی که این آزمایش ها از نظر تئوری جالب به نظر می رسند، بسیاری از این هوش مصنوعی هنوز به طور کامل برای استفاده آماده نیست. پروژه سلامت هوش مصنوعی واتسون IBM را در نظر بگیرید. با وجود سرمایه گذاری چند میلیون دلاری، پروژه همچنان مشکلات زیادی داشت و غیرعملی و کاملاً منعطف بود و در نهایت قطعات آن فروخته شد.

گوگل و دیپ مایند به خوبی از محدودیت های این فناوری آگاه هستند. آنها در مقاله خود می نویسند که برای اینکه این مدل واقعاً مفید باشد، باید در چندین زمینه توسعه و بهبود یابد. زمینه هایی مانند یافتن پاسخ در منابع پزشکی معتبر و به روز، و توانایی تشخیص و برقراری ارتباط موثر و مفید با بیماران یا پزشکان.

منبع: Popscience

5858

دکمه بازگشت به بالا