تشخیص پزشکی هوش مصنوعی قابل اعتماد است؟
پریسا عباسی: دانشمندان کامپیوتری که در گوگل و DeepMind (یک شرکت هوش مصنوعی) کار می کنند، نسخه ای از برنامه پزشک هوش مصنوعی را ارائه کرده اند که می تواند بیماری ها را بر اساس شرایط و علائم خاص با استفاده از یک مدل زبانی بزرگ به نام PaLM تشخیص دهد. .
طبق مقاله اولیه از پیش منتشر شده توسط این گروه، مدل آنها توانسته است با توجه به ادعای آنها مبنی بر افزایش 17 درصدی نسبت به حالت قبلی خود، در آزمون آزمایشی حاوی سؤالات آزمون مجوز پزشکی ایالات متحده، 67.6 درصد امتیاز کسب کند. software -art.slow کار هر کدام از نسخه های این مدل با پزشک انسان برابری می کند. اما اخطارهای زیادی در مورد این الگوریتم ها و الگوریتم های مشابه وجود دارد.
این مدل بر اساس مجموعه ای از اطلاعات مبتنی بر بیش از 3000 پرسش پزشکی مکرر جستجو شده (در اینترنت) و همچنین اطلاعات از 6 پایگاه داده باز اختصاص داده شده به پرسش و پاسخ های پزشکی که شامل معاینات پزشکی و تحقیقات موردی پزشکی می باشد. در مرحله آزمایشی، محققان پاسخهای دریافتی از دو نسخه هوش مصنوعی را با پزشکان انسانی مقایسه کردند و این پاسخها را از نظر صحت، واقعگرایی، مرتبط بودن، مفید بودن، انطباق با نظریه جامع علمی فعلی، ایمنی و جهتگیری بررسی کردند.
آدریانا پورترفلت، مهندس نرمافزاری که روی گوگل کروم کار میکند و در این تحقیق شرکت نداشت، در توییتر گفت که نسخهای از این مدل که به سؤالات پزشکی مشابه پزشکان پاسخ میدهد باید یک ویژگی اضافه شود و آن «دستورالعملهای تنظیمشده» است. این یک فرآیند انسانی است و از آنجایی که پرزحمت است، ارزش این همه زحمت را ندارد.” این شامل اصلاح دقیق عبارت سوال به نحوی است که به هوش مصنوعی اجازه می دهد اطلاعات صحیح را دریافت کند.
محققان در این مقاله نوشتند: «این مدل دلگرمکننده است، اما به میزان کمتری نسبت به پزشکان». و اینکه: “درک این مدل در پزشکی، بازیابی و یادآوری دانش و استدلال پزشکی، با مدل های تحقیقاتی و تنظیم سریع دستورالعمل ها افزایش می یابد.” به عنوان مثال، هر نسخه از هوش مصنوعی، در مقایسه با پاسخ های انسانی، اطلاعات مهمی را از دست می دهد و حاوی محتوای نادرست و نامناسب است.
مدلهای گفتاری در تجزیه اطلاعات پیچیده بهتر میشوند. و به نظر می رسد که آنها با وظایفی که نیاز به دانش و استدلال علمی دارند به خوبی انجام می دهند. چندین مدل کوچک، از جمله SciBERT و PubMedBERT، مرزهای مدلهای زبانی را برای درک متون مملو از اصطلاحات فراتر بردهاند.
اما در زمینه های زیست پزشکی و علمی، عوامل پیچیده و ناشناخته زیادی وجود دارد. و اگر هوش مصنوعی اشتباه کند، چه کسی پاسخگو خواهد بود؟ از آنجایی که اطلاعات چندین الگوریتم مانند یک جعبه سیاه عمل می کند، آیا می توان منبع خطا را شناسایی و ردیابی کرد؟ علاوه بر این، الگوریتمها (که شامل دستورالعملهای ریاضی هستند که توسط برنامهنویسان به کامپیوتر داده میشوند) ناقص هستند و به دادههای آموزشی کامل و صحیح نیاز دارند که ممکن است در هر موقعیت و همهجا در دسترس نباشد. علاوه بر این، خرید و مدیریت داده های مرتبط با سلامت می تواند گران باشد.
پاسخ صحیح به سوالات آزمون چند گزینه ای استاندارد نشانه هوش نیست. و مهارت های تحلیلی رایانه ممکن است در موارد پزشکی بالینی در دنیای واقعی بسیار کم باشد. بنابراین در حالی که این آزمایش ها از نظر تئوری جالب به نظر می رسند، بسیاری از این هوش مصنوعی هنوز به طور کامل برای استفاده آماده نیست. پروژه سلامت هوش مصنوعی واتسون IBM را در نظر بگیرید. با وجود سرمایه گذاری چند میلیون دلاری، پروژه همچنان مشکلات زیادی داشت و غیرعملی و کاملاً منعطف بود و در نهایت قطعات آن فروخته شد.
گوگل و دیپ مایند به خوبی از محدودیت های این فناوری آگاه هستند. آنها در مقاله خود می نویسند که برای اینکه این مدل واقعاً مفید باشد، باید در چندین زمینه توسعه و بهبود یابد. زمینه هایی مانند یافتن پاسخ در منابع پزشکی معتبر و به روز، و توانایی تشخیص و برقراری ارتباط موثر و مفید با بیماران یا پزشکان.
منبع: Popscience
5858