אונקולוגיה

מגבלות הבינה המלאכותית בקבלת החלטות קליניות (npj Digital Medicine)

AI
כלי בינה מלאכותית (AI) יכולים להיות בעלי ערך בסיוע לרופאים באבחון מהיר ובחירת טיפולים מתאימים, אך אמינותם עדיין מעוררת דאגה, כך עולה ממחקר שפורסם ב-npj Digital Medicine

ממחקר שפורסם ב-npj Digital Medicine, עולה כי כלי בינה מלאכותית (AI) יכולים להיות בעלי ערך בסיוע לרופאים באבחון מהיר ובחירת טיפולים מתאימים, אך אמינותם עדיין מעוררת דאגה. ד"ר ז'יונג לו, חוקר בכיר במכוני הבריאות הלאומיים ופרופסור נלווה למדעי המחשב באוניברסיטת אילינוי, מסביר: "לבינה מלאכותית יש פוטנציאל לסייע לאנשי מקצוע בתחום הבריאות על ידי שיפור היעילות, הגישה לטיפול איכותי לכולם, והשוויון בבריאות."

המחקר בחן את הביצועים של GPT-4V, מודל AI רב-מודאלי חדש מבית OpenAI, בהתמודדות עם שאלות רפואיות וההצדקות שסיפק לתשובותיו. המודל הושווה לתשעה רופאים מהתמחויות שונות בפתרון 207 שאלות אמריקאיות ממבחן Image Challenge של ה-New England Journal of Medicine.

GPT-4V השיג דיוק של 81.6%, מעט יותר מהרופאים (77.8%), ואבחן נכונה 78.3% מהמקרים שהרופאים טעו בהם. עם זאת, כשהתבקש לתאר את התמונות ולספק הצדקות כתובות לאבחנה, GPT-4V התקשה. הוא הציג הצדקות פגומות ב-35.5% מהמקרים בהם אבחן נכונה, עם שגיאה של 27.2% בהבנת תמונות.

החוקרים מדגישים כי הבנת מגבלות ה-AI חיונית לפני שילובו המלא בפרקטיקה הקלינית היומיומית. ד"ר לו מייעץ: "אין ערובה לכך שהנמקת ה-AI תמיד נכונה. רופאים חייבים להבין את הסיבות מאחורי התוצאות שה-AI מייצר במקום לסמוך עליהן בעיניים עצומות, למרות הדיוק הגבוה. רופאים צריכים להמשיך להסתמך על שיקול דעתם המקצועי בטיפול בחולים."

לכתבה ב-Medscape

0 תגובות

השאירו תגובה

רוצה להצטרף לדיון?
תרגישו חופשי לתרום!

כתיבת תגובה

מידע נוסף לעיונך

כתבות בנושאים דומים

הנך גולש/ת באתר כאורח/ת.

במידה והנך מנוי את/ה מוזמן/ת לבצע כניסה מזוהה וליהנות מגישה לכל התכנים המיועדים למנויים
להמשך גלישה כאורח סגור חלון זה