בשבוע שעבר פורסם מכתב פתוח לשר הבריאות שתיאר מקרים שבהם אנשי רפואה נתנו המלצות שגויות בהסתמך, לכאורה, על פלט שקיבלו מ-ChatGPT. כותבי המכתב, בהם אנשי רפואה, הזהירו מפני סכנה כבדה בשימוש בכלים אלה והציעו פתרונות מעולם הרגולציה. אז האם בינה מלאכותית היא מהפכה חיובית בעולם הרפואה – או איום על בטיחות המטופל? התשובה, כמו תמיד ברפואה, היא "תלוי" - ומחייבת הבחנה בין סוגי הטכנולוגיות, רמות הבשלות שלהן, והאופן שבו אנו בוחרים להטמיע אותן.
סל רחב של כלים
הטכנולוגיות שאנו כוללים תחת הכותרת "בינה מלאכותית" אינן מקשה אחת. לצד הכלים החדשים כמו מודלי שפה גדולים וצ'אטים המבוססים עליהם, קיימות גם טכנולוגיות ותיקות כמו למידת מכונה וראייה ממוחשבת – טכנולוגיות בדוקות, מוכחות, ומאושרות זה שנים על ידי גופי בקרה קפדניים בארה"ב, באירופה ובישראל. טכנולוגיות AI ותיקות אלה לא סובלות מהתופעות המאפיינות את הצ'אטים ומודלי השפה. הן לא נוטות "לפברק" עובדות, והן מאוד אמינות ביכולתן להגיע שוב ושוב לאותה התוצאה.
2 צפייה בגלריה


האם בינה מלאכותית היא מהפכה חיובית בעולם הרפואה – או איום על בטיחות המטופל?
(צילום: shutterstock)
מערכת הבריאות בישראל הייתה מהראשונות לאמץ ולפתח טכנולוגיות ותיקות אלה בפרקטיקה. כללית, לדוגמה, מאפשרת בשנים האחרונות לרופאיה לזהות הידרדרות ומחלות טרם קרו, ולבצע התאמה אישית של המלצות טיפוליות. סוג כזה של רפואה מנבאת ומותאמת אישית אפשרי בזכות מערכת AI תומכת החלטה (C-Pi) שהיא פיתחה, בדקה, אימצה והטמיעה. המערכת מייצרת המלצות מדויקות ומוסברות לרופא תוך הצלבת המידע הקליני של המטופל עם ההמלצות העדכניות ביותר, מבלי לטשטש את גבולות האחריות הקלינית – שנותרת בידי הרופא.
ניסיון רב-שנים זה אפשר לנו לסייע למדינות אחרות להפעיל בינה מלאכותית באופן אחראי, ולפני כשנה אף פרסמנו בכתב העת המדעי המוביל "ניו אינגלנד ג'ורנל אוף מדיסין" קווים מנחים לנושא ("אופטיקה") שהפכו לסטנדרט בינלאומי.

גם מקומם של בתי החולים לא נפקד – כך, לדוגמה, מערכת AIDOC המבוססת על כלי ראייה ממוחשבת פרי פיתוח חברת הזנק ישראלית, פרוסה במרכזי דימות ובחדרי המיון בישראל. המערכת מאפשרת סימון ממצאים חשודים בבדיקות דימות – לעיתים לפני שהעין האנושית מזהה אותם. כל אלו אינם תיאוריות על רפואת המחר – זו הרפואה של היום, ובזכותם גופי הבריאות בישראל נחשבים למודל לחיקוי לממשלות וארגוני בריאות בעולם.
ומה לגבי ChatGPT? אפשר להאמין לתשובות שלו ברפואה?
לגבי ChatGPT ודומיו, המכונים "בינה מלאכותית יוצרת" - נדרשת זהירות. מבחינות רבות פנייה של רופא לצ'אט אונליין דומה מאוד לשימוש שלו בגוגל. כמו גוגל, גם הצ'אט עלול להבין לא נכון את השאלה, או לפנות למקורות מידע לא אמינים. אבל להבדיל מגוגל – אנחנו עדיין פחות מנוסים בשימוש בו, והוא יודע "להמציא" תשובה שנשמעת מצוין אך נטולת בסיס, מוטית או מטעה באופן משכנע. זו הסיבה שבעטייה כלים אלה מסוג זה טרם אושרו על ידי ה-FDA לשימוש מחוץ למסגרת ניסוי.
אתגר זה אינו ייחודי לעולם הרפואה. רק לאחרונה שמענו על כמה מקרים שבהם הגישו עורכי דין סיכומים לבית המשפט העליון שכללו מאות ציטטות "מומצאות", לאחר שהעתיקו אותן מהצ'אט תוך אמונה עיוורת בנכונותם מבלי לבדוק אותם. המקרה הראשון בעליון הסתיים באזהרה והבאים יסתיימו בקנסות, עד שאנשי המקצוע יגלו את הזהירות הנדרשת.
"שימוש בצ'אט כפי שהוא מייצר תשובות מוטות, שגויות, ולעיתים מסוכנות. אבל בעתיד הלא-רחוק, כלים מתקדמים מאלו שקיימים כיום יוכלו אפילו להחליף אנשי מקצוע רפואי בהחלטות צרות, ובחלק מהליך הבירור הרפואי"
אבל אלו רק חבלי לידה, וצריך להסתכל קדימה. הולכות ומצטברות עדויות על כלי בינה יוצרת שמצליחים להתעלות על יכולת אנושית בניתוח נתונים, בהסקה ובפתרון בעיות מדעיות ורפואיות מורכבות, ואפילו בכתיבת תשובות הנתפסות כ"אמפתיות" יותר מתשובות הרופא. מנגד, שימוש בצ'אט כפי שהוא מייצר תשובות מוטות, שגויות, ולעיתים מסוכנות. אבל בעתיד הלא-רחוק, כלים מתקדמים מאלו שקיימים כיום יוכלו אפילו להחליף אנשי מקצוע רפואי בהחלטות צרות, ובחלק מהליך הבירור הרפואי. כך, רגולציה הנבחנת כעת בארה"ב, עשויה להתיר מתן מרשמי תרופות על ידי בינה מלאכותית.
השקעה בבינה מלאכותית ברפואה – צו השעה
אני מסכים עם כותבי מכתב האזהרה לשר הבריאות ב"אבחנה", אבל חלוק עליהם ב"טיפול" הנדרש. לאור ניסיון העבר - המענה לאתגרים הוא ההפך מרגולציה חוסמת. האם רגולציה הייתה מונעת טעויות שעשו רופאים שהשתמשו בגוגל?
הפתרון הוא מאמץ לאומי ממוקד בתחום הבינה המלאכותית ברפואה, לעידוד פיתוח והתנסות בכלים חכמים ובדוקים, ועידוד התעדכנות מקצועית רחבה. בדיוק לשם כך הקמנו את תוכנית החומש האסטרטגית של כללית למהפכת ה-AI - מאמץ ארגוני רב-חטיבתי ורב-תחומי הנשען על הניסיון רב-השנים של מכון המחקר, ומאגד את מיטב המומחים מהרפואה, מדעי הנתונים, הדאטה, הסייבר והאתיקה. המרכז מתמקד בפיתוח ובהטמעה של תשתיות, שירותים ומוצרים מבוססי AI - לא רק ברפואה, אלא גם בחוויית המטופל, בניהול, ובשירות.
2 צפייה בגלריה


לעודד פיתוח והתנסות בכלים של AI במקום לחסום אותם באמצעות רגולציה
(צילום: shutterstock)
רכיב נוסף שהמדינה צריכה להשקיע בו ולעודד הוא שיתוף פעולה בינלאומי, כמכפיל כוח חשוב למו"פ (מחקר ופיתוח) הישראלי. כך, לדוגמה, במעבדה החיה על שם ברקוביץ' שהקמנו עם אוניברסיטת הרווארד, נמשכת מסורת ישראלית של מחקר פורץ דרך המאפשר פתרונות היי-טק ייחודיים, בשיתוף פעולה עם חוקרי ה-AI המובילים בעולם. כל טכנולוגיה נבחנת בהתאמה זהירה לקהל היעד, לסטנדרטים הרפואיים, ולדרך הנכונה והבטוחה לשלב אותה בעשייה הקלינית היומיומית. אנו שמחים לראות את אנשי הטכנולוגיה המובילים בישראל חוברים אלינו למאמץ – ואנו מגייסים בימים אלה מומחים מובילים נוספים.
צו השעה הלאומי לכן הוא השקעה אסטרטגית ממוקדת ב-AI בבריאות, ומערך רגולציה מאפשר ומעודד התנסות. אם כך יקרה, אין ספק שגם בתחום זה – מציון תצא תורה, וממדינת ישראל תצמח רפואת העתיד – חדשנית, איכותית, אמיצה ואחראית.
ומה לגבי ChatGPT כיועץ רפואי? השורה התחתונה בינתיים נותרת בעינה – אם הנושא חשוב לכם, אין ברירה אלא לבדוק כל "עובדה" וכל ציטוט שמניב כלי הצ'אט – ולזכור שהוא לא מסוגל, בשלב זה, להחליף שיקול דעת רפואי פרטני.
פרופ' רן בליצר, ראש מערך החדשנות בשירותי בריאות כללית. שירת כחבר בגוף הבכיר של מזכ"ל האו"ם לנושא הבינה המלאכותית