ממחקר שפורסם ב-npj Digital Medicine, עולה כי כלי בינה מלאכותית (AI) יכולים להיות בעלי ערך בסיוע לרופאים באבחון מהיר ובחירת טיפולים מתאימים, אך אמינותם עדיין מעוררת דאגה. ד"ר ז'יונג לו, חוקר בכיר במכוני הבריאות הלאומיים ופרופסור נלווה למדעי המחשב באוניברסיטת אילינוי, מסביר: "לבינה מלאכותית יש פוטנציאל לסייע לאנשי מקצוע בתחום הבריאות על ידי שיפור היעילות, הגישה לטיפול איכותי לכולם, והשוויון בבריאות."
המחקר בחן את הביצועים של GPT-4V, מודל AI רב-מודאלי חדש מבית OpenAI, בהתמודדות עם שאלות רפואיות וההצדקות שסיפק לתשובותיו. המודל הושווה לתשעה רופאים מהתמחויות שונות בפתרון 207 שאלות אמריקאיות ממבחן Image Challenge של ה-New England Journal of Medicine.
GPT-4V השיג דיוק של 81.6%, מעט יותר מהרופאים (77.8%), ואבחן נכונה 78.3% מהמקרים שהרופאים טעו בהם. עם זאת, כשהתבקש לתאר את התמונות ולספק הצדקות כתובות לאבחנה, GPT-4V התקשה. הוא הציג הצדקות פגומות ב-35.5% מהמקרים בהם אבחן נכונה, עם שגיאה של 27.2% בהבנת תמונות.
החוקרים מדגישים כי הבנת מגבלות ה-AI חיונית לפני שילובו המלא בפרקטיקה הקלינית היומיומית. ד"ר לו מייעץ: "אין ערובה לכך שהנמקת ה-AI תמיד נכונה. רופאים חייבים להבין את הסיבות מאחורי התוצאות שה-AI מייצר במקום לסמוך עליהן בעיניים עצומות, למרות הדיוק הגבוה. רופאים צריכים להמשיך להסתמך על שיקול דעתם המקצועי בטיפול בחולים."
השאירו תגובה
רוצה להצטרף לדיון?תרגישו חופשי לתרום!