גבר מארצות הברית אושפז למשך שלושה שבועות לאחר שהתייעץ עם ChatGPT לגבי דיאטה דלת נתרן. במקום מלח שולחני, המליץ לו הבוט לצרוך נתרן ברומי, חומר המשמש לחיטוי בריכות, מה שהוביל לאשפוז ממושך בן שלושה שבועות לאחר שהחל לסבול מפסיכוזות והזיות. הדיווח פורסם בכתב העת הרפואי "Annals of Internal Medicine" בימים האחרונים.
ניסוי מסוכן
על פי המאמר הרפואי, הגבר החליט "לערוך ניסוי אישי" במטרה להפחית את צריכת המלח שלו. הוא פנה ל-ChatGPT, שהציע לו כאמור להחליף את המלח הרגיל שלו בנתרן ברומי. כתוצאה מכך, הוא פיתח הרעלת ברום (Bromism), מצב רפואי נדיר שבעבר היה נפוץ יותר במאה ה-19 ובתחילת המאה ה-20, אז שימש הברום כרכיב בתרופות הרגעה לטיפול בחולי אפילפסיה.
תסמיני ההרעלה כוללים פסיכוזה, הזיות, חרדה, בחילות ובעיות עור. בעבר ההרעלה הזו הייתה כה נפוצה, עד שהיא הייתה אחראית ל-8% מכלל האשפוזים בבתי החולים הפסיכיאטריים בארה"ב. אותו גבר הגיע לחדר המיון במצב של פסיכוזה, כשהוא הוזה ומביע חשש ששכנו מנסה להרעיל אותו. הוא ניסה לברוח מהמרכז הרפואי, מה שהוביל לאשפוזו בכפייה ולטיפול תרופתי אינטנסיבי.
כדי לאמת את הממצא המדאיג, הרופאים בדקו בעצמם את הצ'אטבוט, וזה חזר על אותה ההמלצה המסוכנת – ללא כל אזהרה מפורשת
לאחר שלושה שבועות של אשפוז, הצוות הרפואי הצליח להתחקות אחר הסיבה להרעלה וגילה כי הסיבה לכך היא התייעצות עם ChatGPT. כדי לאמת את הממצא הרופאים בדקו בעצמם את הצ'אטבוט, וזה חזר על אותה ההמלצה המסוכנת – ללא כל אזהרה מפורשת.
תופעת ה"הזיות" של הבינה המלאכותית
מקרה זה מציף מחדש את אחת הבעיות המרכזיות במערכות מבוססות AI, והיא תופעת ה"הזיות" - המצאה של עובדות לא קיימות ומתן תשובות שגויות, במיוחד בתחומים הדורשים ידע מקצועי, כמו רפואה. מקרה דומה שקרה בעבר היה של ג'מיני, הצ'אטבוט של גוגל, שהמליץ למשתמשים "לאכול אבנים" כדי לשמור על הבריאות שלהם (תשובה שהתבססה על תוכן הומוריסטי מהרשת, ר"ק).
חברת OpenAI , המפתחת של ChatGPT, השיקה כזכור אך לפני כמה ימים את GPT 5, שאמור לטענתה לספק תשובות מדויקות יותר לשאלות רפואיות. החברה אף ביצעה בדיקה פנימית על כ-5,000 שאלות רפואיות כדי לוודא את דיוק המידע שהצ'אטבוט מספק.
עם זאת, ולמרות שבאירוע ההשקה עצמו ניתן דגש על האופן שבו המערכת יודעת לספק סיוע ומידע לחולים, החברה הדגישה בהצהרה רשמית כי "אין להסתמך על התשובות של השירותים שלנו כמקור יחיד של אמת או מידע עובדתי, או כתחליף לייעוץ מקצועי".
התקרית הזו משמשת תזכורת חמורה לכך שהתייעצות עם אנשי מקצוע בתחום הרפואה היא הכרחית, וכי יש להתייחס למידע המתקבל מכלי בינה מלאכותית בזהירות יתרה, במיוחד כשמדובר בבריאות אישית.
ולנו נותר לתהות האם אנחנו עומדים בפתחו של עידן חדש בו בני אדם יסמכו יותר ויותר על בינה מלאכותית - למרות שזו מאומנת על תכנים אנושיים שבחלק מהמקרים מתבררים כהזויים למדי. נקווה שהבוטים העתידיים לא יקבלו כעובדות מידע הכולל תכני קונספירציה כאלה ואחרים, כי אז העתיד של המין שלנו עשוי להחזיר אותנו לתקופת האבן.